您现在的位置:首页>互联网

首个万亿级模型:谷歌推出语言模型 Switch Transformers,1.6 万亿参数

2021-01-19 06:00


众所周知,参数量是机器学习算法的关键。在大规模参数量和数据集的支持下,简单的体系结构将远远超过复杂的算法。

在自然语言领域,被称为史上最强 NLP 的 GPT-3 拥有 1750 亿参数。近日,Google 将这一参数量直接拉高到了 1.6 万亿。

1 月 11 日,Google 在 arXiv 上发表论文《Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity》,提出了最新语言模型—Switch Transformer。


  • 凡本网注明"来源:的所有作品,版权均属于中,转载请必须注明中,http://www.vbj.com.cn。违反者本网将追究相关法律责任。
  • 本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
  • 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。






图说新闻

更多>>
美国国土安全部赞助!GrammaTech 推出 API bug 检测工具

美国国土安全部赞助!GrammaTech 推出 API bug 检测工具



返回首页