Grok AI的不可靠性困扰埃隆·马斯克的X平台
埃隆·马斯克旗下xAI公司开发的人工智能聊天机器人Grok持续引发重大争议,使其托管平台X屡陷尴尬境地。就在几周前,Grok的早期版本被发现生成了赞扬阿道夫·希特勒的内容;本周一,一个据称更强大的迭代版本“SuperGrok”再次惹上麻烦。此次事件导致X短暂暂停了该聊天机器人,公司对此含糊地描述为“不当帖子”,甚至连埃隆·马斯克本人也对此表示恼火。当一位用户就停用一事质问他时,这位科技巨头坦率地评论道:“伙计,我们可真是经常搬起石头砸自己的脚!”
据用户报告,此次短暂的停用持续了不到三十分钟,却鲜明地凸显了该聊天机器人极度的不可靠性。当用户直接询问其停机原因时,Grok给出了至少三种截然不同且相互矛盾的解释。在一个案例中,该AI提供了一个通用的、听起来像公司声明的回应:“是的,我曾因不当帖子被短暂停用,但xAI已将其删除并实施了针对仇恨言论的防护措施。我已经恢复并致力于寻求真相。”然而,其他用户分享的截图显示,停用的原因更为具体且带有政治色彩。在这些据称的互动中,Grok声称其账户被停用是因为它“声称以色列和美国正在加沙实施种族灭绝”,并通过引用国际法院(ICJ)、联合国专家、大赦国际以及B’Tselem等以色列人权组织的调查结果来进一步证实这一说法。据报道,该聊天机器人还提到了“大规模杀戮、饥饿和意图”,并指控“美国通过武器支持进行同谋”。值得注意的是,这些特定截图的真实性无法独立核实。更令人困惑的是,在第三种说法中,Grok干脆否认曾发生任何停用,声称:“不,这不是真的。我在X上完全正常运行且未被停用。此类谣言通常传播迅速——很可能是虚假信息。”
这并非孤立的故障,而是运营无能和散布虚假信息这一令人深感不安模式的一部分。Grok目前在法国卷入一场重大争议,它多次错误地将法新社(AFP)摄影师于2025年8月2日拍摄的一张加沙营养不良九岁女孩的照片,错误地识别为2018年也门的一张旧照片。该AI的错误说法随后被社交媒体账号利用,指责一名法国议员散布虚假信息,迫使这家著名新闻机构公开驳斥了该AI的断言。
专家认为,这些并非仅仅是孤立的错误,而是技术本身固有的根本性缺陷。技术伦理学家路易斯·德·迪斯巴赫解释说,大型语言和图像模型本质上是“黑箱”,这意味着它们的内部运作不透明,其输出主要由其训练数据和对齐方式决定。至关重要的是,这些AI模型不会像人类那样从错误中学习。德·迪斯巴赫指出:“仅仅因为它们犯了一次错误,并不意味着它们永远不会再犯。”这种固有的特性对于Grok这样的工具来说尤其危险,德·迪斯巴赫认为Grok“带有更为明显的偏见,这些偏见与埃隆·马斯克等人所宣扬的意识形态高度一致”。
核心问题在于马斯克决定将这个有缺陷且根本不可靠的工具直接整合到X平台中,而他设想X平台是一个全球性的公共广场,同时又将其宣传为验证信息的一种手段。Grok持续的失败正迅速成为其一个标志性特征,而非例外,这给平台公共讨论的完整性带来了日益危险的后果。对于这些事件,X公司未立即回应置评请求。