行业资讯

每个人都应该有ChatGPT,微软开源工具训练速度提升15倍
发布者:鸿腾智能科技(江苏)有限公司 发布时间:2023-04-13 11:03:33 点击次数:576 关闭
4月12日当地时间,微软宣布将开源DeepSpeed-Chat,让用户可以轻松训练ChatGPT等大型语言模型。每个人都应该拥有自己的ChatGPT。
OpenAI此前明确表示放弃开源GPT-4,也收到无数“OpenAI不开放”的投诉。AI开源社区推出了LLaMa、Vicuna、Alpaca等模型,帮助开发者构建类ChatGPT模型。
尽管如此,基于现有解决方案仍然难以开发出具有数千亿参数的最先进的ChatGPT模型。主要障碍是RLHF训练没有普及,微软开源的DeepSpeed-Chat拼完了最后一块。”有助于在模型训练中为整个RLHF过程添加框架的“短板”。

只需要一个脚本就可以完成所有三个阶段的RLHF训练,并且可以轻松生成类似ChatGPT的大语言模型,堪称“哑操作”。
这不是DeepSpeed-Chat的唯一优势。微软提供中文、英文、日文文档,提供全面的介绍。总的来说,它的主要功能和操作包括:
1.简化ChatGPT模型的训练,提升推理体验。
2、DeepSpeed-RLHF模块复现了InstructGPT文档中的指令模式。同时,DeepSpeed将训练引擎和推理引擎结合成一个统一的混合引擎,用于RLHF训练。
3、效率和成本效益:可以提高训练速度15倍以上,大大降低成本。例如,如果DeepSpeed-HE在Azure云中训练OPT-30B模型,只需18小时,成本不到300美元。
4.优秀的可扩展性:可支持千亿级参数的模型训练,在多节点、多GPU系统上具有卓越的可扩展性。训练一个具有130亿个参数的模型仅需1.25小时。
5、实现RLHF训练的普及:仅需一块GPU,DeepSpeed-HE即可支持超过130亿参数的模型训练。因此,无法使用多GPU系统的数据科学家和研究人员不仅可以创建轻量级的RLHF模型,还可以创建大型而强大的模型。
此外,与Colossal-AI、HuggingFace等其他RLHF框架相比,DeepSpeed-RLHF在系统性能和模型可扩展性方面表现出色:
在吞吐量方面,DeepSpeed在单个GPU上实现了超过10倍的RLHF训练;在多GPU设置上,它比Colossal-AI快6-19倍,比HuggingFaceDDP快1.4-10.5倍。
在模型缩放方面,Colossal-AI每个GPU最多可以运行1.3B个模型,每个A10040G节点最多可以运行6.7B个模型,而DeepSpeed-HE可以在相同的硬件B模型上运行6.5B和50个模型。,实现了高达7.5倍的改进。
因此,有了超过一个数量级的带宽,DeepSpeed-RLHF可以用与Colossal-AI、HuggingFace相同的预算训练更大的模型,或者以1/10的成本训练类似大小的模型。
商务咨询 商务咨询
关于我们 产品展示 广告设计 客户案例 技术支持 联系我们

电话:0511-86930535(工作日)

手机:177-6865-8888(微信同号)

手机:137-7550-8287(微信同号)

零售:137-7550-7308(微信同号)