2 天
知乎专栏 on MSN何恺明LeCun暴击Transformer命门,9行代码砍掉归一化层!性能反而更强了?编辑:编辑部 ZYJ 【新智元导读】Transformer架构迎来历史性突破!刚刚,何恺明LeCun、清华姚班刘壮联手,用9行代码砍掉了Transformer「标配」归一化层,创造了性能不减反增的奇迹。
来自Meta AI的华人科学家刘壮团队,联合AI大神何恺明, 图灵奖得住Yann LeCun等大牛搞了个大新闻——他们的最新论文证明了:Transformer ...
“残差神经网络发明人”、麻省理工学院副教授何恺明与图灵奖得主、“卷积网络之父”Yann LeCun的最新合作论文提出“无需归一化的Transformer”,目前已入选CVPR 2025,该发现有望进一步改进AI模型性能,给开发者们带来新思路。
机器之心报道机器之心编辑部何恺明又双叒叕发新作了,这次还是与图灵奖得主 Yann LeCun 合作。这项研究的主题是没有归一化层的 Transformer(Transformers without Normalization),并已被 CVPR ...
和DNA序列建模(HyenaDNA和Caduceus),在每种情况下,采用DyT的Transformers都实现了与标准化Transformers相似或更好的性能。 5、在英伟达H100 GPU上,动态双 ...
DNA序列建模 在长程DNA序列建模任务中,预训练了HyenaDNA模型和Caduceus模型。 预训练使用了来自人类参考基因组数据,并在GenomicBenchmarks上进行评估。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果