2 天
知乎专栏 on MSN何恺明LeCun暴击Transformer命门,9行代码砍掉归一化层!性能反而更强了?编辑:编辑部 ZYJ 【新智元导读】Transformer架构迎来历史性突破!刚刚,何恺明LeCun、清华姚班刘壮联手,用9行代码砍掉了Transformer「标配」归一化层,创造了性能不减反增的奇迹。
来自Meta AI的华人科学家刘壮团队,联合AI大神何恺明, 图灵奖得住Yann LeCun等大牛搞了个大新闻——他们的最新论文证明了:Transformer ...
“残差神经网络发明人”、麻省理工学院副教授何恺明与图灵奖得主、“卷积网络之父”Yann LeCun的最新合作论文提出“无需归一化的Transformer”,目前已入选CVPR 2025,该发现有望进一步改进AI模型性能,给开发者们带来新思路。
机器之心报道机器之心编辑部何恺明又双叒叕发新作了,这次还是与图灵奖得主 Yann LeCun 合作。这项研究的主题是没有归一化层的 Transformer(Transformers without Normalization),并已被 CVPR ...
DNA序列建模 在长程DNA序列建模任务中,预训练了HyenaDNA模型和Caduceus模型。 预训练使用了来自人类参考基因组数据,并在GenomicBenchmarks上进行评估。
近日,VoiceCare AI获得390万美元种子轮融资,Bread and Butter Ventures、Caduceus Capital Partners投资。
本仓库旨在收集ICML最新研究进展,尤其是LLM方面,涉及NLP领域的各个方向,此项目长期不定时更新。 欢迎watch和fork!不过给个star⭐就更好了 ️。 另外也欢迎大家进入AINLPer星球,每天推送最新、最优质论文,紧跟AIGC大模型前沿进展;另外星球也特设大模型 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果