HarmonyOS 鸿蒙Next有内置轻量化的本地大模型吗?

HarmonyOS 鸿蒙Next有内置轻量化的本地大模型吗? 【问题描述】:我们在我们现在的应用上做了一个录音转成文本的功能,现在想把这个文本通过本地大模型做归纳总结。目前是在线的形式,希望可以做本地归纳总结,所以鸿蒙有没有内置轻量化的本地大模型可供使用?

【问题现象】:不涉及

【版本信息】:不涉及

【复现代码】:不涉及

【尝试解决方案】:不涉及

7 回复

可以用MindSpore Lite,支持MindSpore/TensorFlow Lite/Caffe/Onnx模型,提供模型压缩、数据处理等能力。MindSpore Lite使用.ms格式模型,对于第三方框架模型,比如 TensorFlow、TensorFlow Lite、Caffe、ONNX等,可以使用MindSpore Lite提供的模型转换工具转换为.ms模型

可以参考使用MindSpore Lite实现图像分类(ArkTS)-MindSpore Lite Kit(昇思推理框架服务)-AI - 华为HarmonyOS开发者

或者看看这个三方库OpenHarmony三方库中心仓

更多关于HarmonyOS 鸿蒙Next有内置轻量化的本地大模型吗?的实战系列教程也可以访问 https://www.itying.com/category-93-b0.html


问题+1,帮顶

内存占用过高 qwen0.5b 需要500M存储,内存占用1G左右,速度和实用性不够

期待内置一个小模型,然后可以做一些,前端的客户问题过滤

HarmonyOS Next内置了轻量化的本地大模型。该模型基于华为自研的盘古大模型架构,针对端侧设备进行了优化,支持在本地进行AI推理。它具备文本生成、多轮对话、信息总结等能力,并可在无网络环境下运行,注重用户隐私与低延迟体验。

HarmonyOS Next目前没有内置一个开箱即用、面向所有应用直接调用的轻量化本地大语言模型(LLM)。

不过,您所描述的“录音文本本地归纳总结”需求,在HarmonyOS Next的架构下是有明确技术路径可以实现的。核心在于利用其强大的端侧AI计算框架模型部署能力

以下是实现您需求的关键点和技术建议:

  1. 核心机制:端侧AI推理框架 HarmonyOS Next 提供了完整的端侧AI子系统,支持将AI模型(包括大语言模型)部署到设备端进行本地推理。这避免了数据上传云端,满足了您的本地化与隐私保护需求。

  2. 模型来源:需自行集成或转换

    • 无内置通用大模型:系统没有预装一个类似于ChatGPT的通用对话模型供直接调用。
    • 自主集成:您需要自己寻找或训练一个适合“文本归纳总结”任务的轻量化模型(例如经过裁剪、量化的BERT变体、T5-small等)。
    • 模型工具链:华为提供了MindSpore Lite等工具,可以帮助您将训练好的模型(支持多种格式)转换、优化并部署到HarmonyOS设备上,充分利用NPU等硬件进行高效推理。
  3. 实现流程建议

    • 模型准备:获取或训练一个轻量化的文本摘要模型。
    • 模型转换与部署:使用MindSpore Lite等工具将模型转换为.ms格式,并集成到您的HarmonyOS应用工程中。
    • 应用开发:在您的录音转文本应用中,调用HarmonyOS的AI API(@ohos.ai相关能力),加载您的本地模型,将转换后的文本输入模型,并获取生成的摘要结果。

总结: 虽然HarmonyOS Next没有现成的“本地大模型”API,但其端侧AI框架为您自行部署和运行轻量化AI模型提供了完整支持。您可以遵循“选择/训练模型 -> 转换优化 -> 集成部署 -> 应用调用”的流程,实现完全本地的文本归纳总结功能。这需要一定的AI模型知识和开发工作,但能完全满足您离线、隐私和安全的需求。

回到顶部