Meta 最新基础模子 Llama 4 发布 36 小时后www 91porn com,指摘区果然是这个画风:
失望,非常失望
不知谈他们后稽查何如搞的,总之不太行
在 [ 各式测试 ] 2 中失败
……
还被作念成色彩包戏弄,回想起来便是一个"差评如潮"。
具体来看,公共的牢骚主要王人集在代码智商。
最直不雅的要数经典"氛围编程"小球反弹测试,小球径直穿过墙壁掉下去了。
响应在榜单上,收货也相等割裂。
发布时的官方测评(LiveCodeBench)分数和在大模子竞技场发扬明明都很可以。
但到了各式第三方基准测试中,情况大多径直逆转,名次末尾。
让东谈主不由得怀疑www 91porn com,这个竞技场名次到底是数据过拟合,照旧刷票了。
就在 Llama 4 行将发布前几天,Meta AI 谈判附近 Joelle Pineau 在使命 8 年之后须臾布告下野,总之便是不太妙。
大模子柔和者们火热实测吐槽之际,一则关连 Llama 4 的匿名爆料,须臾引起山地风云:
有网友称我方已向 Meta GenAI 部门提交提交辞职,并条目不要签字在 Llama 4 的工夫敷陈上。
原贴发布在外洋留学求职交流平台一亩三分地,在国内也引起好多筹议。
此爆料尚未获取阐发,但有东谈主搬出 Meta GenAI 矜重东谈主 Ahmad Al-Dahle 的帖子,至少能看出在 Llama 4 大模子竞技场里运行的是很是版块模子。
还有 Meta 前职工借此话题贴出 2024 年 11 月的一项谈判,指出从 Llama 1 开动数据露馅的问题就存在了。
也不单是编程智商一个方面有问题,在 EQBench 测评基准的的长著述写稿榜中,Llama 4 系列也径直垫底。
榜单重视者 _sqrkl 诠释了具体情况。
测试非常浅显,模子需要先完成一个短篇演义的头脑风暴、反想并修改写稿猜想,最终每轮写 1000 字,疏导 8 轮以上。
由 Claude-Sonnet 3.7 来当裁判,先对每个章节单独打分,再对整个这个词作品打分。
Llama 4 的低分表当今写到背面开动大段的试验疏导,以及写稿非常公式化。
对而后果,有一个猜想是之前的版权诉讼让 Meta 删除了相聚和竹素数据,使用了更多的合成数据。
婷婷第四色在这场诉讼中,许多作者发现我方的作品可能被用于 AI 稽查,还到伦敦的 Meta 办公室隔邻发起抗议。
Llama 4 发布后的各种,让东谈主逸意象岁首的匿名职工爆,有网友默示当初只是嘱咐望望,当今却开动服气了:
在这条爆料中,Deepseek v3 出来之后,稽查中的 Llama4 就显得过时了,中层责罚的薪水都比 DeepSeek V3 的稽查本钱都高,Meta 里面堕入心焦时势。
让东谈主不由得齰舌,DeepSeel-R1 横空出世只是两个月时期,却像过了几辈子。
参考联接:
[ 1 ] https://www.reddit.com/r/LocalLLaMA/comments/1jt7hlc/metas_llama_4_fell_short/
[ 2 ] https://www.1point3acres.com/bbs/thread-1122600-1-1.html
[ 3 ] https://x.com/suchenzang/status/1909070231517143509
https://x.com/TheAhmadOsman/status/1908833792111906894www 91porn com