人工智能AI大模型应用开发的几种方式

发布于 1周前 作者 itying888 最后一次编辑是 5天前 来自 分享

人工智能AI大模型应用开发常见的方法有基于大模型API的应用开发模式,基于大模型的微调应用开发模式以及基于大模型API或大模型微调+插件开发模式。

1、基于大模型API的应用开发模式

通过该种方式,开发者可以快速调用大模型的API,获取大模型能力。

开发基本步骤:

  1. 【AI端】 调用API接口,可通过Prompt设计引入相关知识(无需修改模型的结构或参数)
  2. 【前端】 写web端/移动端界面、交互(html/css/js/gradio/streamlit)
  3. 【后端】 整体任务逻辑/队列、集成和调用AI端能力、返回AI端结果(C++/JAVA/PHP/GO/C#/Python…)

所需能力: 无需有AI算法能力,需有前后端开发和工程落地能力 局限性: 能满足大多行业,但是对垂直领域场景的定制能力弱 总结: AI部分难度较小,无需AI专业知识,主要开发工作在前后端和工程化落地。

2、基于大模型的微调应用开发模式

广泛性预训练+针对性微调已经成为了当前大模型训练与落地使用的通用方式,按照微调方式,又将这种模式细分为以下2种方式:

1、传统Fine-tuning

使用开源预训练模型或调用微调API接口,用下游任务的高质量数据重新训练并更新模型参数,使其适用于下游应用 (需要预训练模型根据下游任务调整)

主要方式: Instruct微调、LoRa微调

开发基本步骤:

  1. 【AI端】 加载已经预训练好的大模型,准备和上传训练数据(与目标任务相关的数据,符合fine-tuning文件格式),训练新的Fine-tuning模型,也可以加入一些分类层等;模型封装和部署:高性能/高并发/高可
  2. 【数据】 数据获取,仿照给定数据示例构建新的数据集(字段:Prompt-Completion)
  3. 【前端】 写web端/移动端界面、交互逻辑(html/css/js/gradio/streamlit)
  4. 【后端】 整体任务逻辑/队列、集成和调用AI端能力、返回AI端结果(C++/JAVA/PHP/GO/C#/Python…)

所需能力: 深度学习算法原理、跨模态数据处理、模型训练、模型部署/弹性部署;前后端开发和工程落地

优势: 可根据下游任务数据做定制化程度较高的产品/服务

局限性: 超大规模模型finetune消耗资源较大(训练和推理部署);数据处理工程量较大,数据安全性有考验。

总结:

  1. AI部分难度较大,需懂深度学习原理会数据处理(跨模态数据融合),会训练模型;算力资源消耗大。
  2. 难点主要在于数据工程(数据采集、清洗、对齐)和训练推理资源。
  3. 随着模型规模增大,效果提升逐渐饱和。

2、Prompt-tuning

以特定的prompt模板将下游任务的数据转成自然语言形式,用指令和答案的数据训练(给一些例子来唤醒模型)充分挖掘预训练模型本身的能力,让上游的预训练模型在尽量不需要标注数据的情况下比较好的完成下游的任务**(调整下游任务以适应预训练模型)**

主要方式: In-Context Learning、Instruction-tuning、Chain-of-Thought

基本步骤:

  1. 【AI端】 设计预训练语言模型的任务、设计输入模板样式(Prompt Engineering)、设计label 样式及模型的输出映射到label的方式(Answer Engineering),prompt-completion-label;
  2. 【数据】 标签数据准备、Verbalizer准备、prompt模板设定
  3. 【前端】 写web端/移动端界面、交互逻辑
  4. 【后端】 整体任务逻辑/队列、集成和调用AI端能力、返回AI端结果

所需能力: Prompt engineering相关技巧、前后端开发和工程落地

优势: 所需训练数据相比finetuning数量较少,只对Prompt部分的参数进行训练,同时保证整个预训练模型的参数固定不变,随着模型规模增大,性能提升基本呈线性增长(仅需0.01%的微调参数量)

局限性: 定制化效果有限,达到企业级应用的定制化程度需在Prompt计算/生成方面做较多尝试。

总结: 难点在于Prompt模板设计(人工设计模板/自动学习模板),需要根据下游任务和预训练模型的特性来选择合适的模板,微调消耗的存储和运算资源相比传统finetune有所降低。

3、 基于大模型API或大模型微调+插件开发模式

基本步骤:

  1. 【AI端】调用大模型API或微调大模型
  2. 【前端】写web端/移动端界面、交互逻辑
  3. 【后端】整体任务逻辑/队列(包含插件的输入输出)、集成和调用AI端能力、返回AI端结果
  4. 以向量知识库embedding流程为例:将垂直行业的领域知识向量化并存入向量数据库——用户提问——用户问题向量化——查询向量数据库,得到TopN条匹配知识——构建Prompt,调用 API——返回回答.

所需能力:AI端能力需求较弱, 对任务流程拆解的工程化思考要求较高(节点/队列流程设计、弹性部署等)

总结: AI部分难度较小,难点在于整体任务流程的工程化思考和落地。

1 回复

还有人认为:人工智能AI大模型应用开发还有下面几种方法

  1. 预训练模型微调(Fine-tuning Pre-trained Models)
    • 利用已经在大规模数据集上预训练好的模型,例如BERT、GPT系列、ERNIE等,然后在特定任务的数据集上进行微调,以适应特定的应用场景。这种方式可以大幅减少从头开始训练模型所需的时间和计算资源。
  2. 迁移学习(Transfer Learning)
    • 与微调类似,迁移学习也是利用已有模型的知识来加速新任务的学习过程。但迁移学习可能包括更广泛的技术,如特征提取等。
  3. 自定义模型训练(Custom Model Training)
    • 对于一些非常具体的任务,可能需要从头开始构建模型。这要求开发者有足够的专业知识来设计模型架构,并且有足够的标注数据来进行训练。
  4. 使用API或SDK集成(Integration via APIs or SDKs)
    • 许多云服务商提供了AI模型的服务化接口(APIs),允许开发者无需了解模型内部的工作原理,只需调用API即可使用先进的AI功能。这种方式简单快捷,但可能会产生额外的成本,并且对于模型的控制有限。
回到顶部