浪潮信息发布“源2.0”基础大模型,千亿参数代码开源

IT之家 11 月 27 日消息,浪潮信息今日发布了“源 2.0”基础大模型,并宣布全面开源。源 2.0 基础大模型包括 1026 亿、518 亿、21 亿等三种参数规模的模型。

据介绍,源 2.0 通过使用中英文书籍、百科、论文等高质量中英文资料,降低了互联网语料内容占比。为了获取中文数学数据,浪潮信息清洗了从 2018 年至今约 10PB 的互联网数据,但仅获取到了约 10GB 的数学数据。

为了更高效地获得相对匮乏的高质量中文数学及代码数据集,源 2.0 采用了基于大模型的数据生产及过滤方法,在保证数据的多样性的同时也在每一个类别上提升数据质量。

算力方面,源 2.0 采用了非均匀流水并行的方法,综合运用流水线并行 + 优化器参数并行 + 数据并行的策略,让模型在流水并行各阶段的显存占用量分布更均衡,避免出现显存瓶颈导致的训练效率降低的问题。

源 2.0 在评测上进行了代码生成、数学问题求解、事实问答方面的能力测试,测试结果显示,源 2.0 整体表现处于中上水平。

源 2.0 采用全面开源策略,全系列模型参数和代码均可免费下载使用。IT之家附 GitHub 页面和论文链接:

代码开源链接:

论文链接:

标题:浪潮信息发布“源2.0”基础大模型,千亿参数代码开源

地址:http://www.hmhjcl.com/kongdiao/52621.html