HarmonyOS鸿蒙Next中可以通过华为云 ModelArts 训练自己的图像识别模型吗
HarmonyOS鸿蒙Next中可以通过华为云 ModelArts 训练自己的图像识别模型吗 我们质检质训练一个缺陷检测模型,能否在鸿蒙端采集图片,上传到 ModelArts 训练,再部署回设备?
2 回复
可以。HarmonyOS Next支持通过华为云ModelArts训练图像识别模型,并集成到鸿蒙应用中。开发者需在ModelArts平台完成模型训练与转换,生成适配鸿蒙的模型文件(如NN模型),再通过鸿蒙AI框架部署调用。
更多关于HarmonyOS鸿蒙Next中可以通过华为云 ModelArts 训练自己的图像识别模型吗的实战系列教程也可以访问 https://www.itying.com/category-93-b0.html
可以。HarmonyOS Next应用能够通过华为云ModelArts完成从数据采集、模型训练到端侧部署的全流程。
具体实现路径如下:
-
鸿蒙端数据采集与上传:您可以在HarmonyOS Next应用中调用系统相机或文件API采集/选择缺陷图片。利用华为云提供的HarmonyOS SDK(如OBS SDK),可将图片数据直接上传至华为云对象存储服务(OBS)的指定桶中,作为ModelArts的训练数据集。
-
在ModelArts上训练模型:在ModelArts控制台,您可以:
- 使用自动学习中的“图像分类”或“物体检测”场景,提供已上传的图片进行标注,之后平台会自动完成模型训练与生成。这种方式无需编码,适合快速入门。
- 使用Notebook或训练作业进行更定制化的开发。您可以编写PyTorch、TensorFlow或MindSpore代码,读取OBS中的训练数据,进行专业的模型训练与调优。
-
模型部署回鸿蒙设备:
- 端云协同方案:将训练好的模型部署为ModelArts云服务,鸿蒙应用通过API调用该云服务进行推理。这种方式适合对实时性要求不高、或模型较大的场景。
- 纯端侧方案:这是更符合您描述的方案。在ModelArts完成训练后,平台支持将模型转换为ONNX格式。然后,您可以使用HarmonyOS Next的AI框架(通过相关API)将这个转换后的模型集成到您的鸿蒙应用中,实现完全在设备本地的离线推理。
关键技术点:
- 数据流:鸿蒙设备 -> OBS -> ModelArts。
- 模型回流:ModelArts -> 导出为ONNX等格式 -> 集成至HarmonyOS应用。
- 端侧推理:利用HarmonyOS AI框架在设备端加载并运行模型。
整个流程依托华为云服务实现闭环,技术上完全可行。您需要分别在鸿蒙应用开发、ModelArts平台操作以及端侧模型集成环节进行具体实现。

