全球最实用的IT互联网信息网站!

AI人工智能P2P分享&下载搜索网页发布信息网站地图

当前位置:诺佳网 > AI人工智能 > AI通用技术 >

英伟达推出归一化Transformer,革命性提升LLM训练速

时间:2024-10-23 11:30

人气:

作者:admin

标签: 英伟达  Transformer  神经网  LLM 

导读:英伟达团队近日在AI领域投下了一枚震撼弹,他们提出了一种全新的神经网络架构——归一化Transformer(nGPT)。这一创新架构基于超球面(hypersphere)进行表示学习,为AI领域带来了新的突破。...

英伟达团队近日在AI领域投下了一枚震撼弹,他们提出了一种全新的神经网络架构——归一化Transformer(nGPT)。这一创新架构基于超球面(hypersphere)进行表示学习,为AI领域带来了新的突破。

相较于传统的Transformer架构,nGPT在保持原有精度的同时,直接将大型语言模型(LLM)的训练速度提升了高达20倍。这一显著的性能提升,无疑将极大地推动AI技术的发展和应用。

在nGPT中,所有的向量(包括嵌入向量、多层感知机(MLP)向量、注意力矩阵向量以及隐藏状态向量)都被归一化为单位范数(unit norm)。这一设计不仅简化了模型训练过程,还提高了模型的稳定性和泛化能力。

英伟达团队的这一创新成果,无疑为AI领域注入了新的活力。nGPT架构的提出,不仅将推动AI技术的进一步发展,还将为各种应用场景提供更加高效、准确的解决方案。

温馨提示:以上内容整理于网络,仅供参考,如果对您有帮助,留下您的阅读感言吧!
相关阅读
本类排行
相关标签
本类推荐

CPU | 内存 | 硬盘 | 显卡 | 显示器 | 主板 | 电源 | 键鼠 | 网站地图

Copyright © 2025-2035 诺佳网 版权所有 备案号:赣ICP备2025066733号
本站资料均来源互联网收集整理,作品版权归作者所有,如果侵犯了您的版权,请跟我们联系。

关注微信