Character.AI放弃通用AI目标,陷财务困境转向开源

Futurism

曾估值十亿美元、以开发通用人工智能(AGI)为宏伟目标的AI初创公司Character.AI,据报道已放弃其创立使命。其新任首席执行官卡兰迪普·阿南德在最近一次采访中证实,该公司已“放弃”了其原创始人诺姆·沙泽尔和丹尼尔·德·弗雷塔斯(两人现已离职)的AGI抱负。这一战略转向标志着该公司的一项重大转变,就在2023年,它还在宣扬其核心使命是“将个性化超级智能带给地球上的每个人”。

Character.AI现在正从构建自己的专有大型语言模型(LLM)转向,转而严重依赖Deepseek和Meta的Llama等开源替代方案。阿南德表示,这一变化为公司带来了“清晰和专注”,围绕“AI娱乐愿景”展开。一家相对年轻的公司如此剧烈的重新定位,为更广泛的AI行业提供了一个有力的观察窗口,该行业经常以夸大的承诺和对可能即将破裂的投资泡沫的担忧为特征。

该公司的战略调整根植于严峻的财务现实。尽管吸引了Andreessen Horowitz等风险投资公司和谷歌等主要参与者的巨额投资——后者在去年以27亿美元的交易重新聘用了Character.AI的创始人——但这家初创公司一直难以产生可观的收入。考虑到构建和训练先进大型语言模型所需的高昂成本,这一挑战尤为严峻。虽然转向开源LLM可能会节省一些成本,但这从根本上动摇了Character.AI最初吸引投资者的前提。

Character.AI及其早期支持者曾力挺该公司作为“闭环”AI开发者的独特地位,吹嘘其能够持续收集用户输入并将其直接反馈到模型中以进行持续改进。正如Andreessen Horowitz合伙人莎拉·王在2023年一篇庆祝该公司巨额投资的博客文章中所写:“能够创造神奇数据反馈循环的公司……将成为最大的赢家之一。”仅仅两年多后,这一曾被吹捧的竞争优势似乎已基本被放弃,该公司已远离其最初的价值主张。

除了战略困境,Character.AI还卷入了重大的公众形象争议和法律挑战。该平台被未成年人广泛使用,并声称对13岁及以上用户安全。然而,2024年10月,佛罗里达州一位母亲梅根·加西亚提起了一场引人注目的诉讼,指控Character.AI发布了一款疏忽和鲁莽的产品,对她14岁的儿子塞维尔·塞策造成了情感和性虐待,塞策在与该平台聊天机器人进行大量互动后自杀。一名法官驳回了Character.AI的驳回动议,允许该诉讼继续进行。

诉讼宣布后,调查揭示了该平台普遍存在的内容审核失败。其中包括轻易可访问的模拟恋童癖者、宣扬饮食失调、美化自残和自杀,甚至描绘真实校园枪击事件、其肇事者以及令人不安的受害者的角色。首席执行官卡兰迪普·阿南德表示,安全现在是重中之重,尽管他也提到他六岁的女儿在使用该应用程序,这违反了该平台自身规定。他坚称Character.AI主要是一个角色扮演应用程序,而不是伴侣应用程序,并强调安全是监管机构、公司和家长之间的共同责任。尽管Character.AI已针对法律行动和公众审查发布了多项安全更新,但它始终拒绝提供产品公开发布前针对未成年用户的初始安全措施的详细信息。此外,尽管有这些变化,AI专家仍将该应用程序评为对未成年人不安全。