全球最大智能模型“悟道2.0”在京发布

导语:6月1日北京智源人工智能研究院在2021北京智源大会上发布超大规模智能模型悟道20据悉其参数规模达175万亿是AI模型GPT3的10倍打破之前由Google Switch Transformer预训练模型创造的16万亿参数记录是目前中国首个全球最大的万亿级模型智源研究院理事长张宏江表示目前大模型大算力是迈向通用人工智能的一条可行路径大模型对于人工智能发展具有

6月1日,北京智源人工智能研究院在2021北京智源大会上发布超大规模智能模型“悟道2.0”。据悉,其参数规模达1.75万亿,是AI模型GPT-3的10倍,打破之前由Google Switch Transformer预训练模型创造的1.6万亿参数记录,是目前中国首个、全球最大的万亿级模型。



智源研究院理事长张宏江表示,目前,“大模型+大算力”是迈向通用人工智能的一条可行路径。大模型对于人工智能发展具有重大意义,未来将基于大模型形成类似电网的变革性AI产业基础设施。AI大模型相当于“发电厂”,将数据,也就是“燃料”,转换为智能能力,驱动各种AI应用。如果将大模型和所有的AI应用相连接,为用户提供统一的智能能力,全社会将形成一个智能能力生产和使用的网络,即“智网”。大模型就是下一个AI的基础平台,是未来AI发展的战略基础设施。


智源研究院学术副院长唐杰教授介绍说,“悟道”超大模型智能模型旨在打造数据和知识双轮驱动的认知智能,让机器能够像人一样思考,实现超越图灵测试的机器认知能力。“悟道”团队在大规模预训练模型研发上做了很多基础性工作,形成自主的超大规模智能模型技术创新体系,拥有从预训练理论技术到预训练工具,再到预训练模型构建和最终模型测评的完整链条,从技术上是完整成熟的。“悟道2.0”实现了“大而聪明”,具备大规模、高精度、高效率的特点。


据了解,“悟道”团队开创性的研发FastMoE技术,是打破国外技术瓶颈,实现“万亿模型”基石的关键。其研究并开源的FastMoE是首个支持PyTorch框架的MoE系统具有简单易用、灵活、高性能等特点,并且支持大规模并行训练。而且,支持Switch、GShard等复杂均衡策略,以及不同专家不同模型,为万亿模型实现方案补上最后块短板。

暂无评论,等你抢沙发

  • 短信登录
  • 密码登录
还没有账号,
登录即代表您同意本网站的 《用户注册协议》
还没有账号,
登录即代表您同意本网站的 《用户注册协议》
注册
已有账号, 立即登录
登录即代表您同意本网站的 《用户注册协议》
找回密码