HarmonyOS 鸿蒙Next HiAI Foundation -- 模型推理 鸿蒙场景化代码

发布于 1周前 作者 sinazl 最后一次编辑是 5天前 来自 鸿蒙OS

HarmonyOS 鸿蒙Next HiAI Foundation – 模型推理 鸿蒙场景化代码

介绍

本示例展示了使用HiAI Foundation API提供的模型推理能力。

本示例展示了对图片中的物体进行分类识别的能力展示。

需要编译依赖HiAI Foundation的动态库libhiai_foundation.so和AI 领域公共动态库libneural_network_core.so。

demo详情链接

https://gitee.com/scenario-samples/hi-aifoundationkit-codelab-clientdemo-cpp


更多关于HarmonyOS 鸿蒙Next HiAI Foundation -- 模型推理 鸿蒙场景化代码的实战系列教程也可以访问 https://www.itying.com/category-93-b0.html

1 回复

更多关于HarmonyOS 鸿蒙Next HiAI Foundation -- 模型推理 鸿蒙场景化代码的实战系列教程也可以访问 https://www.itying.com/category-93-b0.html


HarmonyOS 鸿蒙Next HiAI Foundation的模型推理在鸿蒙场景化代码中主要通过调用HiAI提供的API实现。以下是关键步骤概述:

  1. 初始化HiAI环境:在模型推理前,需调用HiAI API初始化运行环境,确保设备上的AI资源已正确配置。

  2. 加载模型:使用HiAI的模型加载接口,将训练好的AI模型文件加载到设备内存中。这一步通常涉及模型格式的转换,确保模型与HiAI框架兼容。

  3. 创建推理会话:通过HiAI API创建推理会话,设置输入和输出张量。输入张量用于存放模型推理所需的输入数据,输出张量用于接收推理结果。

  4. 执行推理:在推理会话中调用执行接口,启动模型推理过程。HiAI框架将负责在设备上调度AI资源,执行模型计算。

  5. 处理推理结果:推理完成后,从输出张量中获取推理结果,并根据应用场景进行后续处理。

  6. 释放资源:推理结束后,释放加载的模型和创建的推理会话,以节省设备资源。

上述步骤是鸿蒙Next HiAI Foundation进行模型推理的基本流程。如果问题依旧没法解决请联系官网客服,官网地址是:https://www.itying.com/category-93-b0.html。

回到顶部