图与代码不一致的论文,很「常见」,不过提出了 Transformer 的开山鼻祖论文,竟然也出现了同样的错误?
今天,AI 圈被一个惊天「翻车」刷屏了。
谷歌大脑的 NLP 奠基之作、提出 Transformer 架构的开山鼻祖级论文 《Attention Is All Your Need》 中的图,被网友扒出与代码并不一致。
自 2017 年问世以来,Transformer 已经成为 AI 领域的基石王者。就连大红大紫的 ChatGPT 真正的幕后大佬也是它。
2019 年,谷歌还专门为它申请了专利。
归宗溯源,现在各类层出不穷的 GPT,都起源于这篇 17 年的论文。
据 Google Scholar,截止目前,这篇奠基之作已有 7 万多次的引用。
所以,ChatGPT 的奠基石都不稳了?
作为「开山鼻祖」的论文,结构图竟是错的?
Lightning AI 创始人、机器学习研究者 Sebastian Raschka 发现,这篇论文中 Transformer 的图是错误的。
图中被圈出的地方,LayerNorms 是在注意力和全连接层之后。在残差块之间放置层归一化,会导致输出层附近参数的预期梯度很大。
而且,这也与代码不一致。
不过有网友指出,Noam shazeer 在几周后对代码进行了纠正。
随后,Sebastian 称,在论文 Layer Normalization in the Transformer Architecture 中,Pre-LN 表现得更好,可以解决梯度问题。
这是很多或者大多数架构在实践中所采用的,但它可能导致表征崩溃。
如果层归一化在注意力和全连接层之前被放置在残差连接之中,就会实现更好的梯度。
Sebastian 提出,虽然关于使用 Post-LN 或 Pre-LN 的讨论仍在进行中,但也有一篇新论文提议把二者结合起来。
在这种双残差 Tranformer 中,表征崩溃和梯度消失的问题都得到了解决。
网友热议
针对论文中的疑点,有网友指出:中间不是已经有了 PreLN 和 PostLN 了吗?
Sebastian 回答说,自己也觉得有点奇怪。或许 2nd LN 指的是最后一个输出层,而不是每个 transformer 块,但他对此也不确定。
有网友表示:「我们经常遇到与代码或结果不匹配的论文。大多数就是出于错误,但有时也会让人很奇怪。而这篇论文已经流传甚久了,为什么这种问题此前从没被人提出过,这真的很奇怪。」
有网友表示,已经有论文在 NormFormer 中展示了一个不太复杂的架构,而他的团队最近也证实了他们的结果。而 ResiDual 论文没有在任何地方提到 NormFormer,这让人很惊讶。
同时,评论区不断出现网友证实:Transformers 中使用的 LN,与 CNN 中使用的方式并不同。
所以,论文真的存在漏洞,还是乌龙事件?
让我们静观后续。
参考资料:
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。
5月9日,国家统计局发布数据显示,2022年全国城镇单位就业人员平均工资保持增长。 数据显示,2022年,全国城镇非私营单位就业人员年平均工资为114029元,比上年增长6.7%,增速比2021年回...
感谢IT之家网友吉茵珂絲、软媒新友2010825、Mr_C_rM、EdgeOS、Dest1n的线索投递! ,微软很罕见地在周二向Beta频道推送了最新的Windows11Insider版本,版本号升...
,开发者GustaveMonce近日更新DuoWoA项目,为SurfaceDuo手机发布了2305.25驱动版本更新,让这款双屏手机更顺畅地运行Win11系统。 本次驱动版本更新主要提高了GPU驱动...
,微软官方博客已宣布对WindowsServerContainer镜像进行一些修改,以减小其容量,从“服务层”中删除了一些配置单元文件,禁用一些不必要的计划任务,并删除了非必要的日志文件。 微软解释...
近几年科幻之风日渐盛行,越来越多的产品设计也都在往科幻感上靠。七彩虹以往的游戏本一直是主打国风的“将星”系列,而在这个科幻风的大潮下,七彩虹也发布了旗下首款以复古未来主义科幻作为机身设计灵感的新品游戏...
图集
PICTURES最新
NEWS热搜
SEARCHAurora是意大利首席笔类制造商,成立于1919年...
2017年10月24日,瑞士奢华腕表品牌雅克德罗(J...
TAGHEUER泰格豪雅Aquaracer竞潜系列越...
说到三次入华的捷尼赛思,相信依然有很多的消费者对它不...