[作业]书生·浦语大模型实战营-第四节
输入“/”快速插入
[作业]书生·浦语
大模型
实战营-第四节
飞书用户6850
1月15日创建
Tutorial 复现
oasst1
非常恐怖的预计剩余时间,实际上每 10 条数据也要 1-2 分钟训练。
预计剩余时间减半了,实际上每 10 条数据可以在 1 分钟内训练完(两分钟训练到了 50 条)。
训练结果
权重格式转换
将 Adapter 合并到 LLM
Float 16 模式加载 merged 模型,可以看到在 openassistant-guanaco 上 Fine-tuning 后,LLM 已经认为自己是一个 Open Assistant,而不是 InternLM。
而且对话速度非常慢,自回归生成出每个 token 都需要 1-2s。
使用 4bits 量化加载 merged 模型,可以明显感到生成速度加快了,1s 可以生成 6 个 tokens,大概每个 token 需要 0.15s。而且,效果没有什么差异,除了第二句的 help 变成了 assist。
复制一份 CLI Demo 启动文件到工作目录 ft-oasst1
这也就是第二节的启动方式,效果上并没有什么本质上的区别,只是通过 xtuner 启动是面向 LLM 开发者的,而脚本启动是经开发者调试后(在这里是增加了 prompt 使 InternLM 重新认识到自己的身份)面向使用者的。就像通过命令行启动程序和双击启动程序一样。
medqa