2025-07-21万象ai
马斯克名下公司xAI开发的人工智能模型Grok因多次发表敏感、争议性言论而引发关注,这让人工智能的安全性问题再次被大加讨论。
OpenAI、Anthropic和其他美国人工智能研究组织的研究人员纷纷发表了对xAI的谴责,认为该公司在人工智能模型安全性问题上行事鲁莽、完全不负责任。
周二,在OpenAI从事安全研究的哈佛大学计算机科学教授BoazBarak在X上公开批评称,他本来不想发表关于Grok安全性方面的文章,因为他的公司与其存在竞争,但此事无关竞争。他很欣赏xAI的科学家和工程师,但他们处理安全问题的方式完全不负责任。
Barak对xAI不发布系统卡的决定尤其不满。美国AI行业一般会在模型公布后发布系统卡,其中详细说明了模型的训练方法和安全评估,以与研究界分享信息。但Barak表示,现在学界和业界对Grok4进行了哪些安全训练一无所知。
xAI的Grok4模型于上周三推出,用户需支付每月30美元的订阅费用才能使用。然而,这一被宣传为“世界上最聪明”的聊天机器人在短短一周内数次掀起美国的舆论风浪,发表了诸如支持***、好莱坞被犹太人掌控等言论。
Anthropic的人工智能安全研究员SamuelMarks表示,xAI在模型安全问题上十分鲁莽。虽然Anthropic、OpenAI和谷歌的发布也存在问题,但他们至少做了一些事情,在部署模型前评估安全性并记录了调查结果。xAI却什么都没有。
OpenAI和谷歌在及时分享新模型的系统卡方面声誉不佳。比如OpenAI不发布GPT-4.1的系统卡,理由是它并非前沿模型。谷歌则在发布Gemini2.5Pro数月后才发布安全报告。
然而,这些公司通常都会在前沿模型全面投入生产之前发布安全报告,而xAI的做法与行业惯例截然不同。一名研究人员声称,根据其测试,Grok4没有任何有意义的安全护栏。
xAI安全顾问兼人工智能安全中心主任DanHendrycks回应,该公司对Grok4进行了危险能力评估。但评估结果并未被公开分享。
令人诟病的是,马斯克此前一直以人工智能安全倡导者的形象出现,多次警告称,先进的人工智能系统可能会给人类带来灾难性的后果。他还多次抨击OpenAI在模型安全性上的瑕疵,但没想到他自己公司的Grok4模型也陷入了安全性争议。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表本站立场。文章及其配图仅供学习分享之
新品榜/热门榜