查看: 324|回复: 7

人工智能学习

[复制链接]

2

主题

9

回帖

24

积分

新手上路

Rank: 1

积分
24
发表于 2024-12-14 20:51:29 | 显示全部楼层 |阅读模式
接下来我将要在这个帖里分享我关于人工智能技术学习的相关经验,欢迎互动和关注!(主要是大语言模型相关的)
回复

使用道具 举报

4

主题

22

回帖

50

积分

注册会员

Rank: 2

积分
50
发表于 2024-12-14 20:51:48 | 显示全部楼层
微调模型,这个东西是根据我提供的基本模型微调加上相关数据所形成的特定领域的针对性问题解决工具。比如医生模型,给医学相关的知识模型和大量数据来达到模拟一个医生的“微调模型”。通过输入暗区突围市场的市场价格和相关信息来预测市场走向,之前有很多的up主会做一些市场走向的预测视屏,现在通过相关的“微调模型”即可达到高效可靠的类似能力。我说以前我也想要做类似的工作但是懒得搞呢,原来是当时就觉得这个行动有点难以捉摸,现在好了,这么多赛季下来市场的走向也有了一个大概的范围,现在应该是有所谓的最优玩法了。如果用ai的话我都不敢想对普通玩家是多大的打击。虽然人的力量也不该被否定就是了,相应的东西至少在我S2的时候就有主播通过excel的方式获得解法,并通过短视频和粉丝群盈利了。就是这么多,等我下一个知识点。
回复 支持 反对

使用道具 举报

2

主题

13

回帖

28

积分

新手上路

Rank: 1

积分
28
发表于 2024-12-14 20:51:59 | 显示全部楼层
有提到微调模型再chatgpt中是有专门的ui界面的,根据查询时一个和python的合作什么什么平台,是我暂时理解不了的,放一放先。
回复 支持 反对

使用道具 举报

发表于 2024-12-14 20:52:12 | 显示全部楼层
关于微调模型。他是一个像计算机程序一样的东西,甚至可以说他就是一个程序,通过在各个关键节点对他的细微的调整,来达到解决特定问题的工具。与程序不同的点可能是他可以吸纳更多的数据和数据整理的能力,而且这一能力是可以根据对模型的微调来达到优化和调整的。
在大语言模型(LLM)的调整中可能出现的一些问题提:
1.信号和噪音的区分!即使程序会按照指示的模型去运行,但是它本身是不会主动去理解你所给到的数据当中的问题的,比如说你想要下一个赛季的小紫价格走向,你提供了市场上小紫的价格变动和相关的产出量和稀有度。那么问题是LLM是不会主动知道价格浮动、产出概率、可能的与策划方的价值联动的(比如三角州行动中的收集扑克牌行动什么的)。所以他的问题是这些问题LLM是不会主动解决的,预测游戏市场价值尚且是一个复杂的问题,那么现实生活中的问题呢?尖端领域的问题呢,如果要应用LLM技术至最大,如何区分噪音与信息是一个首先要解决的问题。
2.第二个问题还在学,他说的是:即使你知道了什么是你要解决的问题,你要解决的问题有多大,但你还是会陷入如何解决这一抽象化具体的问题。让我接着学一学这个
回复 支持 反对

使用道具 举报

4

主题

15

回帖

38

积分

一年会员

Rank: 1

积分
38
发表于 2024-12-14 20:52:40 | 显示全部楼层
LLM模型优化是一个持续不断的过程,这越来越接近写程序的样子了,像“搬砖”一样。而我现在学习的东西就是关于如何最优化这一东西的效率和质量。
首先给出结论,LLM模型的优化不是线性的。
举个大多数人的例子:快速工程——检索增强生成——微调。
他的环节解释分别是:
1.快速工程,快速工程是通过精心设计输入的提示词(prompt),来最大化模型的输出效果。
这是优化LLM的最基础和直接的方法,无需修改模型本身。应用方式:
明确问题:将需求分解为具体的指令。例如:
不佳的提示:"解释什么是AI。"
优化后的提示:"以简单的语言解释人工智能是什么,限制在3句话内。"
分步骤设计:通过“逐步推理”提示模型生成有逻辑的回答。
提示:"列出解决问题的步骤,并依次解释每一步的细节。"
引导上下文:在提示中加入背景信息或具体的角色扮演。
提示:"假设你是教育专家,为一个小学生解释什么是人工智能。"
这个是快速工程的含义,以提示词来让LLM快速适应微调模型的角色,达到解决问题的状态。b站上很多的up主就是用一些列的提示词来达到一个LLM模型的脱胎换骨,通过一系列的提示词来让LLM生成的内容符合人类的审美和具有实用价值。这价值是被提示词设计者创造的,智联招聘上的所谓提示词工程师应该就是这个工作内容了。
2.检索增强生成(Retrieval-Augmented Generation, RAG)
RAG是通过将LLM与外部知识库结合,使模型在生成内容时可以从外部检索最新或领域相关的信息。
工作原理:
1.用户查询:
用户输入问题。
2.检索阶段:
系统从外部知识库(如文档、数据库)中检索相关的信息。
3.生成阶段:
LLM结合检索到的信息生成更准确、更相关的回答。
这一个我就比较知道了,因为这个东西很直观。国内的大多数或者说全部的ai工具都是这么个节奏。
一.用户查询:12月份应季的水果。
二.检索阶段,这个阶段ai就开始强调自己是搜索了多么多么个网站的信息才得到的结果,还要把搜索的网页的心意一五一十的给你列出来,搞得非常的直观,我就感觉有点LOW,不是说不好,就是感觉LOW。
三.生成阶段,这个就是各个大模型之间技术力的比拼了吧,1是需要用户习惯积累和市场调研,2都是国内的各个开源信息网站的公开数据,最多比拼一个检索的速度和关键词提取的准确程度。我感觉只有3是最具技术力的比拼了,通过检索到的数据进行更准确更相关的回答,这个就涉及到了定义一个回答那里更准确,那里更相关的回答了,里面的门道可大着呢。我用下来感觉就智普和kimi最好用了,最全最客观。但敌不过gpt就是了,国内的LLM还不够gpt好用就处在这里,数据源也是一大点也是。反正不花钱的我一直在用,反正不要钱,我会一支持国内LLM的!
3.微调
微调是通过向模型提供特定领域或任务的数据集,重新训练模型的一部分参数,从而使其在特定任务上表现更出色。
特点:
高成本:需要专业数据、计算资源。
长期有效:模型会永久性地学到新能力。
应用方式:
领域专用任务:
例如,通过微调使模型成为法律助手,能够生成符合法律规范的文书。
企业定制化:
将企业独有的语气、知识库、服务规则整合到模型中。
解决复杂任务:
对特定领域进行深度训练,增强复杂逻辑处理能力。
实现方法:
准备数据:
数据格式通常是JSONL文件,包含输入(prompt)和输出(completion)。
数据需高质量且足够多样化。
使用工具:
OpenAI的Fine-tuning API。
Hugging Face的训练框架。
训练模型:
调整一部分参数(如模型的最后几层),让模型更好地适配新任务。
这个好专业,容我一点点啃。特点提到了专业数据和永久性学会,这是当然的嘛,一个程序,一个专业领域的相关程序必然是现需要专业数据的,而他一旦成型所能提供的解决方案是不会根据时间的推移减弱的,除非这个问题不再是问题了。应用领域提到了法律文书,我想如果是中国用的话更多的应该是政府的相关文件才是,各种什么文件格式啊绩效量化啊服务流程啊什么的都能够交托给LLM,简直就是文员福音啊,再也不需要加班写文件写材料了,直接生成哈哈,只需要提供相关的格式标准和八股文加分点在哪里即可哈哈。
jsonl就是用户可能提出的问题和回答方式以及人工智能对这一问题的优化文件。简而言之就是使用智普时他推荐的你再问点什么。举个例子:“我想吃水果——苹果、梨、橘子——你可能还想问12月份应季的水果”。这就是一个jsonl文件,这样的文件多次累加让人工智能实现了“智能。”
好长,脑袋要当机了。容我休息一会
回复 支持 反对

使用道具 举报

3

主题

20

回帖

45

积分

新手上路

Rank: 1

积分
45
发表于 2024-12-14 20:53:14 | 显示全部楼层
楼主,你好我也在自学人工智能的相关技术,比如深度学习、卷积神经网络等等,还有最基本的python 编程语言,numpy matplotlib等等,而且我也是医学专业,我也打算未来搞这方面的项目并且未来考虑创业,并且对这个AI和结合医学以及生物有些想法。可以聊聊吗?顺便跟您学习一下大模型相关的经验,交流一下。
回复 支持 反对

使用道具 举报

0

主题

17

回帖

24

积分

新手上路

Rank: 1

积分
24
发表于 2024-12-14 20:54:06 | 显示全部楼层
回到学习,现在可能顺序有些混乱了,让我们重新梳理一下。
LLM最大化提升输出效果
1.微调模型
2.模型大致流程:快速工程,检索增强生成(RAG),微调
3.以上流程有一个问题,检索增强生成——微调的循环递进提升。这一流程增强了生成和微调解决不同的问题,有时我需要更多的生成内容以达到我使用LLM的目的(解决我知识盲区和知识深度不足的问题)有时我需要通过微调解决问题解决不了的问题(微调模型压根不对头的问题)。增强生成和微调二者有时都需要,这取决于你正在处理的问题类别。
所以作者提出了两条不同的优化类型:
1.上下文优化,模型需要知道什么才是你需要解决的问题。
2.LM优化,模型需要如何行动?他执行的方法是什么?他需要采取的行动是什么?
这里需要一张图片

人工智能学习-1.jpg
这个就是作者通过对上下文和模型之间的区别(所要解决的问题来划分的解决问题的维度)
一个是根据更多的上下文和外部资料来检索增强生成(RAG),一个是针对特定任务进行再训练。二者需要根据问题的类型进行区分和针对性优化。
以下是一个例子
人工智能学习-2.jpg
先是写下了快速工程(提示词)来界定微调模型的主体,再是输入少量数据观察效果和反馈改进,在是根据效果进行特化的进程,即检索增强生成,达到更加深化的结果和更加过程和结果,最终再引以模型装饰生成一个解决特定问题的微调模型!
解决了!一整套微调模型的概念我弄清楚了!明天见!
回复 支持 反对

使用道具 举报

1

主题

15

回帖

29

积分

新手上路

Rank: 1

积分
29
发表于 2024-12-16 21:19:36 来自手机 | 显示全部楼层
啊啊啊啊啊啊啊啊啊啊啊
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

特惠

限量优惠活动

正在火热进行

站长

添加站长微信

领取运营礼包

下载

便携运营智库

立即下载APP

导航

运营工具导航

AI工具导航

AI

AI运营助手

帮助

帮助中心

常见问题

顶部