黄仁勋对话Transformer七子:模型的未来在于数据质量,而非规模

黄仁勋对话Transformer七子:模型的未来在于数据质量,而非规模

乌鸦智能说2024-03-22 16:14

在今年的GTC大会上,英伟达CEO黄仁勋邀请了Transformer的七位作者(Niki Parmar因故临时未能出席)参与圆桌论坛的讨论,这是Transformer团队首次在公开场合集体亮相。

2017年,八位在谷歌工作的AI科学家发表了一篇名为《Attention Is All You Need》的论文,详细描述了Transformer架构,开启了生成式AI的新篇章。大热的ChatGPT正是基于这一架构构建的。

在此次访谈中,他们将分享Transformer背后的创新故事,也讨论了如何通过优化模型、提高效率和扩展应用范围来不断推动AI技术的边界。

Aidan Gomez看来,AI行业目前仍然停留在Transformer原理上,需要更多新的灵感来推动AI走向更高的平台。对于基础模型的未来,

你可能感兴趣的:(#,AI商业/产品/投融资前沿,#,LLM大语言模型,transformer,深度学习,人工智能)