|
发表于 2024-12-14 20:52:40
|
显示全部楼层
LLM模型优化是一个持续不断的过程,这越来越接近写程序的样子了,像“搬砖”一样。而我现在学习的东西就是关于如何最优化这一东西的效率和质量。
首先给出结论,LLM模型的优化不是线性的。
举个大多数人的例子:快速工程——检索增强生成——微调。
他的环节解释分别是:
1.快速工程,快速工程是通过精心设计输入的提示词(prompt),来最大化模型的输出效果。
这是优化LLM的最基础和直接的方法,无需修改模型本身。应用方式:
明确问题:将需求分解为具体的指令。例如:
不佳的提示:"解释什么是AI。"
优化后的提示:"以简单的语言解释人工智能是什么,限制在3句话内。"
分步骤设计:通过“逐步推理”提示模型生成有逻辑的回答。
提示:"列出解决问题的步骤,并依次解释每一步的细节。"
引导上下文:在提示中加入背景信息或具体的角色扮演。
提示:"假设你是教育专家,为一个小学生解释什么是人工智能。"
这个是快速工程的含义,以提示词来让LLM快速适应微调模型的角色,达到解决问题的状态。b站上很多的up主就是用一些列的提示词来达到一个LLM模型的脱胎换骨,通过一系列的提示词来让LLM生成的内容符合人类的审美和具有实用价值。这价值是被提示词设计者创造的,智联招聘上的所谓提示词工程师应该就是这个工作内容了。
2.检索增强生成(Retrieval-Augmented Generation, RAG)
RAG是通过将LLM与外部知识库结合,使模型在生成内容时可以从外部检索最新或领域相关的信息。
工作原理:
1.用户查询:
用户输入问题。
2.检索阶段:
系统从外部知识库(如文档、数据库)中检索相关的信息。
3.生成阶段:
LLM结合检索到的信息生成更准确、更相关的回答。
这一个我就比较知道了,因为这个东西很直观。国内的大多数或者说全部的ai工具都是这么个节奏。
一.用户查询:12月份应季的水果。
二.检索阶段,这个阶段ai就开始强调自己是搜索了多么多么个网站的信息才得到的结果,还要把搜索的网页的心意一五一十的给你列出来,搞得非常的直观,我就感觉有点LOW,不是说不好,就是感觉LOW。
三.生成阶段,这个就是各个大模型之间技术力的比拼了吧,1是需要用户习惯积累和市场调研,2都是国内的各个开源信息网站的公开数据,最多比拼一个检索的速度和关键词提取的准确程度。我感觉只有3是最具技术力的比拼了,通过检索到的数据进行更准确更相关的回答,这个就涉及到了定义一个回答那里更准确,那里更相关的回答了,里面的门道可大着呢。我用下来感觉就智普和kimi最好用了,最全最客观。但敌不过gpt就是了,国内的LLM还不够gpt好用就处在这里,数据源也是一大点也是。反正不花钱的我一直在用,反正不要钱,我会一支持国内LLM的!
3.微调
微调是通过向模型提供特定领域或任务的数据集,重新训练模型的一部分参数,从而使其在特定任务上表现更出色。
特点:
高成本:需要专业数据、计算资源。
长期有效:模型会永久性地学到新能力。
应用方式:
领域专用任务:
例如,通过微调使模型成为法律助手,能够生成符合法律规范的文书。
企业定制化:
将企业独有的语气、知识库、服务规则整合到模型中。
解决复杂任务:
对特定领域进行深度训练,增强复杂逻辑处理能力。
实现方法:
准备数据:
数据格式通常是JSONL文件,包含输入(prompt)和输出(completion)。
数据需高质量且足够多样化。
使用工具:
OpenAI的Fine-tuning API。
Hugging Face的训练框架。
训练模型:
调整一部分参数(如模型的最后几层),让模型更好地适配新任务。
这个好专业,容我一点点啃。特点提到了专业数据和永久性学会,这是当然的嘛,一个程序,一个专业领域的相关程序必然是现需要专业数据的,而他一旦成型所能提供的解决方案是不会根据时间的推移减弱的,除非这个问题不再是问题了。应用领域提到了法律文书,我想如果是中国用的话更多的应该是政府的相关文件才是,各种什么文件格式啊绩效量化啊服务流程啊什么的都能够交托给LLM,简直就是文员福音啊,再也不需要加班写文件写材料了,直接生成哈哈,只需要提供相关的格式标准和八股文加分点在哪里即可哈哈。
jsonl就是用户可能提出的问题和回答方式以及人工智能对这一问题的优化文件。简而言之就是使用智普时他推荐的你再问点什么。举个例子:“我想吃水果——苹果、梨、橘子——你可能还想问12月份应季的水果”。这就是一个jsonl文件,这样的文件多次累加让人工智能实现了“智能。”
好长,脑袋要当机了。容我休息一会 |
|