2025-08-1202ai门户网
编辑:编辑部HYj
【本站导读】Karpathy发出灵魂拷问,评估AI究竟该看哪些指标?答案或许就藏在经典游戏里!最近,加州大学圣迭戈分校HaoAILab用超级马里奥等评测AI智能体,Claude3.7结果令人瞠目结舌。
LLM评估基准的「黄金标准」,正在失效?
一大早,AI大神Karpathy发出质疑,「目前存在一种评估危机,我真的不知道现在该看哪些指标了」。
上下滑动查看
诸如MMLU、SWE-BenchVerified、ChatbotArena等这些基准,各有自己的优劣之处。
如果这些都不够,那么游戏算不算?
毕竟,曾经红极一时的AlphaGo是围棋界的头号AI;就连OpenAI也早年涉足游戏领域,拿着自研AI在DOTA国际赛中取得亮眼的成绩。
最近,Claude3.7的出世,让「宝可梦」一时间成为LLM评判的新标杆。
UCSDHaoAILab再次出手,开源了一种全新的「游戏智能体」,能够实时让计算机使用智能体(CUA)运行解谜、益智等类型的游戏。
结果显示,Claude3.7Sonnet玩超级马里奥足足撑满90s,直接碾压了OpenAI、Gemini和自家前辈;而GPT-4o一上来就直接挂掉了……
谷歌选手Gemini1.5Pro首战即败,而且非常有规律地两步一跳。到了Gemini2.0虽多走了几步,最终还是栽坑。
GamingAgent项目代码已开源,下载安装即可观战AI游戏大PK。
开源地址:https://github.com/lmgame-org/GamingAgent
GPT-4.5反应迟钝,GPT-4o永远被第一个小怪杀死
短短20s,游戏就结束了。
相比之下,GPT-4.5的表现就好多了,起码没卡在第一个小怪。
但它的反应还是很迟缓,几乎是两步一停。
跳过一个矮水管之前,也要犹豫片刻,感觉像是刚学会了游戏操作,还在蹒跚学步。
一个稍高点的水管,尝试了7次,足足花了10s才跳了过去。
好不容易跳了过去,就撞到小怪死掉了。第一回合就这样告终了。
更好笑的是,第二回合的时候,GPT-4.5又栽倒在了第一个小怪那里。毕竟和GPT-4o同属于OpenAI家族,操作都比较菜(bushi)。
第三回合表现也比较一般,还不如第一回合。第一个矮水管就卡了半天,搁水管底下卡了快10s才想起来跳。
最后虽然丝滑地跳过了第二个水管,但还是被小怪杀死了,还没有第一回合走得远。第一回合起码跳过了第三个水管,虽说刚跳过就被杀了。
Gemini1.5两步一跳,2.0栽进坑里
第二回合Gemini1.5算是躲过了第一个小怪,甚至还碰到了问号箱,吃到了蘑菇。
有趣的是,和GPT-4.5两步一停不同,Gemini1.5是「两步一跳」。
走了这么一小段路,一共就跳了9回。地板上也跳一跳,水管上也跳一跳。
最后也是跳过了第三根水管,甚至差点跳过了第四个,算是走得比GPT-4.5要远。
至于更新的Gemini2.0Flash,表现上不出意外地要好得多。
首先,跳得更大胆;其次,跳得也更流畅。
跳到了「前人」未曾涉足的更高的平台上,而且10s就轻松跳过了前面三个水管。
虽然第二回合的时候也惨遭第一个小怪的毒手。
但最后走得比OpenAI家族和Gemini1.5都远——跳过了第四根水管,栽倒在了一个没能跳过去的坑中。
Claude3.7Sonnet发现隐藏奖励
相比于Gemini两步一跳的操作,Claude3.7的操作更加丝滑,走得也远很多。
尤其是在跳跃的时机上,显得更有章法,碰到水管、碰到坑才会跳。
此外,还会有意识地通过跳跃来躲避小怪。
跳过了Gemini2.0Flash两回合都没跳过去的坑,Claude操作下的马里奥终于是吃到了金币;终于是碰到了除了哥布林(形似蘑菇)之外的小怪——库巴(形似乌龟);甚至还碰出了隐藏奖励——超级星星。
最后是掉到了阶梯平台之间的坑里,结束了游戏。
AI大战2048益智游戏,GPT-4o拿不出手
可能很多人对这款游戏并不熟悉,规则是通过滑动进行拼图,玩家将带有相同数字的方块合并,达到可能最高的数值。
GPT-4o在挑战过程中,因为思考过久,陷入困境。
而Claude3.7虽多走了几步,比GPT-4o强不少,但最终还是以失败告终。
俄罗斯方块,智商在线
那么Claude3.7玩俄罗斯方块的表现,又如何呢?
Anthropic开发者关系负责人AlexAlbert称赞道,「非常酷!我们需要把每一款电子游戏都变成一种评估工具」。
已经有网友在评论区许愿,让Grok3加入战场。
看来,LLM评估即将开辟一条全新的路。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表本站立场。文章及其配图仅供学习分享之
新品榜/热门榜