罗布乐思开源AI系统:Sentinel打击有害对话,守护儿童安全
为了显著提升在线安全,罗布乐思(Roblox)已开源了Sentinel,这是一个人工智能系统,旨在检测潜在有害对话的早期迹象,特别是那些预示儿童面临危险的对话。这个基于Python的库代表了一种新颖的方法,以应对数字环境中一个持续存在的挑战:在海量的良性互动中识别罕见但关键的恶意模式。
传统的分类系统往往难以处理高度不平衡的数据集,其中有害内容的实例被大量无害的交流所淹没。例如,罗布乐思指出,其生产系统仅包含13,000个有害对话样本,而无害对话样本可能多达数百万。这种稀缺性使得AI极难学习真正构成威胁的内容。加剧这一挑战的是交流的细微性质:一个单独的消息,本身看似无害,但在对话进展的更广阔背景下,却可能揭示险恶意图。
为了克服这些障碍,罗布乐思的工程师们设计了Sentinel,其战略重点是召回率而非精确率。这意味着该系统旨在撒下大网,优先识别所有潜在可疑的案例,即使这会导致更高的误报率。因此,Sentinel充当一个高召回率的“候选生成器”,将对话标记出来以进行更彻底的人工调查,而不是自行做出最终判断。这种方法对于识别罕见模式至关重要的应用尤为有效。Sentinel不是孤立地分析单个消息,而是细致地检查跨多个消息的模式,以辨别令人担忧的行为。
该系统通过分析用户最近的消息,并根据“嵌入相似度”为其分配分数来运作。这个分数衡量每条消息与已知罕见(有害)和常见(无害)内容示例的匹配程度。罕见类别相似度与常见类别相似度的比率提供了一个细致的衡量标准。然后,Sentinel会汇总来自同一来源的近期消息的这些分数,以计算一个名为“偏度”的度量。正偏度表示一种模式,即尽管大多数内容是常见的,但仍有足够的罕见类别相似度表明存在可疑的、右偏的互动分布。根据罗布乐思的说法,这种方法的一个关键优势是其对活动水平变化的弹性,使其适用于具有不同参与模式的用户。
Sentinel的实际影响是巨大的。罗布乐思报告称,该系统显著提升了平台安全性,在其部署的最初几个月内,就促成了向当局提交的1,000多份官方报告。至关重要的是,Sentinel识别出的每一个可疑案例都经过人工专家筛选和调查。这种“人机协作”过程至关重要;这些分析师做出的决策形成了持续的反馈循环,使系统能够完善其示例、索引和训练集。这种迭代方法对于Sentinel适应并跟上恶意行为者不断变化的模式和规避策略至关重要。
虽然Sentinel AI是根据罗布乐思的特定用例开发的,但其创建者强调了其更广泛的适用性。该系统可部署到任何目标类别示例稀缺的分类问题中,特别是当跨多个观察结果的上下文至关重要且高召回率是主要要求时。此外,Sentinel拥有近实时和大规模运行的能力,使其成为保护各种平台数字互动的强大工具。