HarmonyOS鸿蒙NEXT的Ai功能是用api能调用的吗?是本地的功能吗?还有就是小艺自主操作应用的应用需不需要对小艺做额外适配

HarmonyOS鸿蒙NEXT的Ai功能是用api能调用的吗?是本地的功能吗?还有就是小艺自主操作应用的应用需不需要对小艺做额外适配 鸿蒙NEXT的Ai功能是用api能调用的吗?是本地的功能吗?还有就是小艺自主操作应用的应用需不需要对小艺做额外适配

4 回复

鸿蒙NEXT支持通过网络API调用AI能力,例如文字对话等功能。开发者可以通过自建服务端(如使用Node.js)转发请求,调用如Gitee AI等第三方大模型API,再将结果返回给鸿蒙客户端。

Harmony OS Next提供了基础语音服务基础视觉服务意图框架服务自然语言理解服务场景化语音服务场景化视觉服务能力插件辅助开发者开发。可以参考以上AI相关文档的Api调用。

如果希望小艺助手能够自主操作你的应用(如语音指令控制、自动填写、跳转页面等),需要对应用进行额外适配。具体适配方式需参考鸿蒙小艺开放平台的接入指南

更多关于HarmonyOS鸿蒙NEXT的Ai功能是用api能调用的吗?是本地的功能吗?还有就是小艺自主操作应用的应用需不需要对小艺做额外适配的实战系列教程也可以访问 https://www.itying.com/category-93-b0.html


目前已经开放了一些端侧的AI能力。比如Core Speech Kit,Core Vision Kit,Speech Kit等。可以查看具体文档了解哦。

鸿蒙NEXT的AI功能可通过API调用,支持云端与本地协同计算。小艺自主操作应用需要应用方按照鸿蒙的原子化服务标准进行适配,以实现跨应用自动化交互。

是的,HarmonyOS NEXT的AI能力主要通过ArkTS/JS API向开发者开放,可以调用。其核心设计是“端云协同”,部分模型和计算在本地设备进行以保证实时性和隐私,复杂任务则由云端增强。

关于小艺自主操作应用:需要应用进行额外适配。这主要通过HarmonyOS的“元服务”和“意图框架”实现。应用需按照规范定义功能(如播放、支付),小艺才能理解并跨应用调度。未适配的应用,小艺的操控能力将受限。

简单来说:AI功能可通过API调用,端云结合;若要小艺深度操作你的应用,必须进行意图适配。

回到顶部