用一杯星巴克的钱,训练自己私有化的ChatGPT
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115137903-2141604303.png文章摘要:用一杯星巴克的钱,自己动手2小时的时间,就可以拥有自己训练的开源大模型,并可以根据不同的训练数据方向加强各种不同的技能,医疗、编程、炒股、恋爱,让你的大模型更“懂”你…..来吧,一起尝试下开源DolphinScheduler加持训练的开源大模型!
导读
让人人都拥有自己的ChatGPT
ChatGPT的诞生无疑让我们为人工智能的未来充满期待,它以其精细的表达和强大的语言理解能力,震撼了全球。但是在使用ChatGPT的时候,因为它是SaaS,所以个人隐私泄露,企业数据安全问题是每一个人、每一个企业都担心的问题。而现在越来越多的开源大模型出现,让个人/企业拥有自己的大模型成为可能,但是,开源大模型上手、优化、使用要求门槛都比较高,很难让大家简单的使用起来。为此,我们借助Apache DolphinScheduler,一键式地支持了开源大模型训练、调优和部署,让大家可以在极低的成本和技术储备下,用自己的数据训练出专属于自己的大模型。当然,开源大模型的功力距离ChatGPT还有距离,但是经过测试我们看到7、8成的功力还是有的,而且这是可以根据你的场景和领域知识特殊训练过的,针对性更强。同时,我们坚信将来随着技术发展,开源大模型的能力会越来越强,让用户体验越来越好。来吧,我们准备开始。
面向人群——每一个屏幕面前的你
我们的目标是,不仅专业的AI工程师,更是任何对GPT有需求和兴趣的人,都能享受到拥有更“懂”自己的模型的乐趣。我们相信,每一个人都有权利和能力去塑造自己的AI助手,而Apache DolphinScheduler可见即所得的工作流程为此提供了可能。顺带介绍下Apache DolphinScheduler,这是一个Star超过1万个的大数据和AI的调度工具,它是Apache开源基金会旗下的顶级项目,这意味着你可以免费使用它,也可以直接修改代码而不用担心任何商业问题。
无论你是业界专家,寻求用专属于你的数据来训练模型,还是AI爱好者,想尝试理解并探索深度学习模型的训练,我们下面的这个工作流程都将为你提供便捷的服务。它为你解决了复杂的预处理、模型训练、优化等步骤,只需1-2个小时几个简单的操作,加上20小时的运行时间,就可以构建出更“懂”你的ChatGPT大模型:
https://weixin.qq.com/sph/AHo43o
那么,我们一起开启这个神奇的旅程吧!让我们把AI的未来带到每一个人的手中。
仅用三步,构造出更“懂”你的ChatGPT
[*]用低成本租用一个拥有3090级别以上的GPU显卡
[*]启动DolphinScheduler
[*]在DolphinScheduler页面点击训练工作流和部署工作流,直接体验自己的ChatGPT吧
1. 准备一台3090显卡的主机
首先需要一个3090的显卡,如果你自己有台式机可以直接使用,如果没有,网上也有很多租用GPU的主机,这里我们以使用AutoDL为例来申请,打开 https://www.autodl.com/home,注册登录,后可以在算力市场选择对应的服务器,根据屏幕中的1,2,3步骤来申请:
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115138433-1496681756.png
这里,建议选择性价比较高的RTX3090,经过测试支持1-2个人在线使用3090就可以了。如果想训练速度和响应速度更快,可以选择更强的显卡,训练一次大约需要20小时左右,使用测试大概2-3个小时,预算40元就可以搞定了。
镜像
点击社区镜像,然后在下面红框出输入WhaleOps/dolphinscheduler-llm/dolphinscheduler-llm-0521 之后,即可选择镜像,如下如所示,目前只有V1版本的,后面随着版本更新,有最新可以选择最新
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115139159-555456601.png
如果需要多次训练模型,建议硬盘扩容一下,建议100G即可。
创建后,等待下图所示的进度条创建完成即可。
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115139601-766853849.png
2. 启动DolphinScheduler
为了可以在界面上部署调试自己的开源大模型,需要启动DolphinScheduler这个软件,我们要做以下配置工作:
进入服务器
进入服务器的方式有两种,可以按照自己的习惯进行:
通过JupyterLab页面登录(不懂代码的请进)
点击如下JupyterLab按钮
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115140068-1203528564.png
页面跳转到JupyterLab,后可以点击这里的终端进入
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115140665-2023690809.png
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115141128-533962724.png
通过终端登录(懂代码的请进)
我们可以从下图这个按钮获取SSH连接命令
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115141602-136080339.png
并通过终端链接
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115142013-1047728474.png
导入DolphinScheduler的元数据
在DolphinScheduler中,所有的元数据都存储在数据库中,包括工作流的定义,环境配置,租户等信息。为了方便大家在使用时能够启动DolphinScheduler时候就能够看到这些工作流,我们可以直接导入已经做好的工作流定义数据,照屏幕copy进去。
修改导入MySQL的数据的脚本
通过终端如下命令,进入到以下目录
cd apache-dolphinscheduler-3.1.5-bin敲击命令,vim import_ds_metadata.sh 打开 import_ds_metadata.sh 文件
文件内容如下
#!/bin/bash
# 设置变量
# 主机名
HOST="xxx.xxx.xxx.x"
# 用户名
USERNAME="root"
# 密码
PASSWORD="xxxx"
# 端口
PORT=3306
# 导入到的数据库名
DATABASE="ds315_llm_test"
# SQL 文件名
SQL_FILE="ds315_llm.sql"
mysql -h $HOST -P $PORT -u $USERNAME -p$PASSWORD -e "CREATE DATABASE $DATABASE;"
mysql -h $HOST -P $PORT -u $USERNAME -p$PASSWORD $DATABASE < $SQL_FILE把 xxx.xxx.xxx.x 和 xxxx 修改成你公网上一个mysql的一个数据库的数据(可以自己在阿里云、腾讯云申请或者自己安装一个),然后执行
bash import_ds_metadata.sh执行后,如果有兴趣可在数据库中看到相应的元数据(可连接mysql查看,不懂代码的略过)。
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115142668-1349267043.png
启动DolphinScheduler
在服务器命令行里,打开下面的文件,修改配置到DolphinScheduler连接刚才的数据库
/root/apache-dolphinscheduler-3.1.5-bin/bin/env/dolphinscheduler_env.sh修改数据库部分的相关配置,其他部分不用修改,把’HOST’和’PASSWORD’的值改为刚才导入的数据库的相关配置值 xxx.xxx.xxx.x 和 xxxx:
......
export DATABASE=mysql
export SPRING_PROFILES_ACTIVE=${DATABASE}
export SPRING_DATASOURCE_URL="jdbc:mysql://HOST:3306/ds315_llm_test?useUnicode=true&characterEncoding=UTF-8&useSSL=false"
export SPRING_DATASOURCE_USERNAME="root"
export SPRING_DATASOURCE_PASSWORD="xxxxxx"
......配置完成后执行(也在这个目录下 /root/apache-dolphinscheduler-3.1.5-bin )
bash ./bin/dolphinscheduler-daemon.sh start standalone-server执行完成后,我们可以通过 tail -200f standalone-server/logs/dolphinscheduler-standalone.log 查看日志,这时候,DolphinScheduler就正式启动了!
启动服务后,我们可以在AutoDL控制台中点击自定义服务(红框部分)会跳转到一个网址:
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115143296-1371112112.png
打开网址后发现是404,别着急,我们补充一下url的后缀 /dolphinscheduler/ui 即可
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115143608-245284943.png
AutoDL模块开放一个6006的端口,我们将DolphinScheduler的端口配置成6006之后,可以通过上面的入口进入,但是因为跳转的url补全,所以404,因此我们补全URL即可
登录用户名密码
用户名: admin
密码: dolphinscheduler123
登录后点击 项目管理,即可看到我们预置的项目 vicuna,再次点击 vicuna后,我们即可进入该项目。
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115143875-1474302818.png
3. 开源大模型训练与部署
工作流定义
进入vicuna项目后,点击工作流定义,我们可以看到三个工作流,Training,Deploy,Kill_Service,下面解释下这几个功能的用途和内部选择大模型和训练你自己的数据的配置:
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115144254-2134199044.png
我们可以点击下面的运行按钮运行对应的工作流
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115144615-581771975.png
Training
点击后可以看到工作流的定义,包含两个,一个是通过lora finetune模型,一个是将训练出来的模型与基础模型进行合并,得到最终的模型。
具体的任务定义,可以双击对应的图标查看。
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115144938-2009533731.png
该工作流具有以下参数(点击运行后弹出)
[*]base_model: 基础模型,根据个人情况选择自行下载,注意开源大模型仅为学习和体验用途,目前默认为 TheBloke/vicuna-7B-1.1-HF
[*]data_path: 你要训练的个性化数据和领域数据的路径,默认为 /root/demo-data/llama_data.json
[*]lora_path: 训练出来的lora权重的保持路径 /root/autodl-tmp/vicuna-7b-lora-weight
[*]output_path: 将基础模型和lora权重合并之后,最终模型的保存路径,记下来部署的时候需要用到
[*]num_epochs: 训练参数,训练的轮次,可以设为1用于测试,一般设为3~10即可
[*]cutoff_len: 文本最大长度,默认1024
[*]micro_batch_size: batch_size
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115145264-1771351562.png
Deploy
部署大模型的工作流,会先引用kill_service杀死已经部署的模型,在依次启动 controller,然后添加模型,然后打开gradio网页服务。
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115145607-1141767412.png
启动参数如下
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115145891-970663314.png
[*]model: 模型路径,可以为huggingface的模型id,也可以为我们训练出来的模型地址,即上面training工作流的output_path。默认为TheBloke/vicuna-7B-1.1-HF 使用默认,将直接部署vicuna-7b的模型
Kill_service
这个工作流用于杀死已经部署的模型,释放显存,这个工作流没有参数,直接运行即可。
如果一些情况下,我们要停掉正在部署的服务(如要重新训练模型,显存不够时)我们可以直接执行kill_service工作流,杀死正在部署的服务。
看过经过几个实例,你的部署就完成了,下面我们实操一下:
大模型操作实例演示
训练大模型
启动工作流
可以直接执行training的工作流,选择默认参数即可
启动后,可以点击下图红框部分工作流实例,然后点击对应的工作流实例查看任务执行情况
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115146190-2042972100.png
右键对应的任务,可以查看对应的日志,如下
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115146534-1009998819.png
也可以在左边栏最下面的任务实例栏中,查看对应的任务状态和日志等信息
在训练过程中,也可以通过查看日志查看具体训练的进度(包括当前的训练步数,loss指标,剩余时间等),有个进度条一直显示目前在第几个step,step = 数据量 * epoch / batchsize
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115147158-83212648.png
训练完成后日志如下
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115148442-364552715.png
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115149068-904319680.png
更新自己个性化训练数据
我们默认的数据是在/root/demo-data/llama_data.json ,当前数据来源于下面华佗,一个使用中文医学数据finetune的医学模型,对,我们样例是训练一个家庭医生出来:
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115149695-386724785.png
如果自己有特定领域的数据,可以指向自己的数据,数据格式如下
一行一个json,字段含义为
[*]instruction ****: 指令,为给模型指令
[*]input : 输入
[*]output : 期望模型的输出
如以下
{"instruction": "计算算数题", "input": "1+1等于几", "output": "2"}温馨提示,可以将 instruction 和 input 合并为 instruction , input为空也可以。
按照格式制作数据,训练时修改data_path 参数执行自己的数据即可。
注意事项
第一次执行训练,会从你指定的位置拉取基础模型,例如TheBloke/vicuna-7B-1.1-HF ,会有下载的过程,稍等下载完成即可,这个模型下载是由用户指定的,你也可以任选下载其他的开源大模型(注意使用时遵守开源大模型的相关协议)。
因为网络问题,第一次执行Training的时候,有可能会下载基础模型到一半失败,这个时候可以点击重跑失败任务,即可重新继续训练,操作如下所示
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115150347-1934424066.png
如果要停止训练,可以点击停止按钮停止训练,会释放训练占用的显卡显存
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115150813-1946655225.png
部署工作流
在工作流定义页面,点击运行deploy工作流,如下如所示即可部署模型
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115151318-1907087404.png
如果自己没有训练出来的模型的话,也可以执行默认参数 TheBloke/vicuna-7B-1.1-HF,部署vicuna-7b的模型,如下图所示:
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115151801-2132433548.png
如果在上一步我们进行了模型训练,我们可以部署我们的模型了,部署之后就可以体验我们自己的大模型了,启动参数如下,填入上一步的模型的output_path即可
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115152037-637292719.png
下面我们进入部署的工作流实例,如下图所示,先点击工作流实例,然后点击deploy前缀的工作流实例即可
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115152377-1460324630.png
右键点击refresh_gradio_web_service后可以查看任务日志,找到我们大模型链接的位置,操作如下
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115152997-390783666.png
在日志的最后,我们可以看到一个链接,可以公网访问,如下
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115153787-1257028662.png
这里有两个链接,一个是0.0.0.0:7860 因为AutoDL只开放了6006端口,并且已经用于dolphinscheduler,所以我们暂时无法访问该接口,我们可以直接访问下面的链接
(https://81c9f6ce11eb3c37a4.gradio.live) 这个链接每次部署都会不一样,因此需要从日志找重新找链接。
进入后,即可看到我们的对话页面
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115154244-754755530.png
https://img2023.cnblogs.com/other/2685289/202305/2685289-20230530115154835-1915174005.png
对!就这样你就拥有了你自己的ChatGPT了!而且它的数据仅服务于你自己!而且!你只花了不到一杯咖啡的钱哦~~
体验一下,你自己的私有化ChatGPT吧!
总结
在这个以数据和技术驱动的世界中,拥有一个专属的ChatGPT模型具有无法估量的价值。随着人工智能和深度学习的日益发展,我们正处在一个可塑造个性化AI助手的时代。而训练和部署属于自己的ChatGPT模型,可以帮助我们更好地理解AI,以及它如何改变我们的世界。
总的来说,自训练和部署ChatGPT模型可以帮助你更好地保护数据安全和隐私、满足特定的业务需求、节约技术成本,同时通过工作流工具如DolphinScheduler使训练过程自动化,并更好地遵守当地的法律法规。这都使得自训练和部署ChatGPT模型成为一个值得考虑的选择。
附注意事项:
数据安全与隐私
当你使用公共API服务使用ChatGPT时,你可能会对数据的安全性和隐私有所顾虑。这是一个合理的担忧,因为你的数据可能会在网络中被传播。通过自己训练和部署模型,你可以确保你的数据仅在你自己的设备或你租用的服务器上存储和处理,保障数据安全与隐私。
特定领域知识
对于具有特定业务需求的组织或个人来说,通过训练自己的ChatGPT模型,可以确保模型具有与业务相关的最新和最相关的知识。无论你的业务领域是什么,一个专门针对你的业务需求训练的模型都会比通用模型更有价值。
投入成本
使用OpenAI的ChatGPT模型可能会带来一定的费用,同时如果要自己训练和部署模型,也需要投入一定的资源和技术成本,40元就可以体验调试大模型,如果长期运行建议自己采购3090显卡,或者年租云端服务器。因此,你需要根据自己的具体情况,权衡利弊,选择最适合自己的方案。
DolphinScheduler
通过使用Apache DolphinScheduler的工作流,你可以使整个训练过程自动化,大大降低了技术门槛。即使你不具备深厚的算法知识,也可以依靠这样的工具,顺利地训练出自己的模型。支持大模型训练的同时,它也支持大数据调度、机器学习的调度,帮助你和你的企业非技术背景的员工简单上手的做好大数据处理、数据准备、模型训练和模型部署,而且,它是开源且免费的。
开源大模型法律法规约束
DolphinScheduler只是可视化AI工作流,本身不提供任何开源大模型。用户在使用下载开源大模型时,你需要注意自行选择不同的开源大模型使用约束条件,本文中的开源大模型所举的例子仅供个人学习体验使用,使用大模型时需要注意遵守开源大模型开源协议合规性。同时,不同国家都不同严格的数据存储和处理规定,在使用大模型时,你必须对模型进行定制和调整,以适应你所在地的具体法律法规和政策。这可能包括对模型输出的内容进行特定的过滤等,以满足当地的隐私和敏感信息处理规定。
本文由 白鲸开源 提供发布支持!
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
页:
[1]