TPC25:AI在科学、多模态数据及非LLM领域中作用日益扩大

Aiwire

上周举行的TPC25会议将一系列塑造人工智能未来的关键问题推向了前沿,超越了大型语言模型的炒作,转而应对数据、评估和问责制方面的根本挑战。一场由四位杰出演讲者参与的全体会议深入探讨了如何利用人工智能加速科学发现同时保持控制、将语言模型的生成输出追溯到其训练数据的复杂任务、当人工智能解读地图而非文本时公平性的复杂概念,以及这些复杂系统可能以前所未有的方式出现故障的问题。

橡树岭国家实验室(ORNL)人工智能项目主任Prasanna Balaprakash阐述了该机构自1979年以来长期参与人工智能的历程。他强调了ORNL在开创人工智能科学应用方面的历史作用,从早期的基于规则的专家系统到拥有泰坦(Titan)和当前前沿(Frontier)等配备数万个GPU的强大超级计算机。如今,ORNL的人工智能计划优先为科学模拟、实验设施和国家安全构建可靠、高效的人工智能模型。这包括开发用于验证、确认、不确定性量化和因果推理的稳健方法,以及在超级计算机上扩展大型模型和在边缘部署小型模型的策略。Balaprakash强调ORNL专注于非传统模态,例如对核聚变模拟至关重要的大规模时空数据,从而取得了突破,如橡树岭地球系统可预测性基础模型,该模型实现了百亿亿次吞吐量,并拥有高达100亿参数的模型——这是此类数据的首次。他还详细介绍了材料科学中大规模图基础模型的工作,以及人工智能与实验仪器的整合,从而实现实时数据处理和实验的智能引导,以优化资源利用。

艾伦人工智能研究所(AI2)的Jiacheng Liu将焦点转向大型语言模型的内部运作,介绍了OLMoTrace,一个旨在打开LLM“黑箱”的创新系统。该工具集成在AI2的开放OLMo模型家族中,允许用户将其LLM生成的响应直接追溯到其数万亿标记训练数据集中的特定片段。通过利用优化的索引系统,OLMoTrace能够快速识别模型输出与其源文档之间的精确匹配,从而可以对信息进行事实核查、理解模型答案的来源,甚至揭示“幻觉”的根源——即模型生成虚构内容的情况。Liu演示了该系统如何揭示一个模型已经学会从学生在没有实际运行代码的情况下提供输出的训练对话中产生虚假的代码执行结果。对于研究人员和从业者来说,这种透明度对于审计模型行为、确保符合新兴的人工智能治理规则以及通过将高级行为与底层数据联系起来补充机制可解释性研究具有无价的价值。

来自巴塞罗那超级计算中心人工智能研究所(BSC AI Institute)主任Ricardo Baeza-Yates对人工智能的社会影响提出了一个更发人深省的观点,他对所谓的“不负责任的人工智能”进行了批判性概述。他认为,当前的人工智能系统容易出现故障,例如自动化歧视、错误信息传播和资源浪费,这往往是因为它们被视为人类推理的镜子,而不是单纯的预测引擎。Baeza-Yates警告不要用“道德人工智能”等术语将人工智能拟人化,他坚称道德和信任是人类固有的品质,将其归因于机器会转移其人类设计者的责任。他强调了生成式人工智能日益增长的危害,从虚假信息到版权纠纷和心理健康问题,并引用了聊天机器人涉嫌自杀的悲剧案例。他强调了“非人类错误”的危险——即人工智能会犯人类不会犯的错误,而社会对此毫无准备。Baeza-Yates认为,仅仅通过准确性来衡量人工智能的成功是不够的;相反,重点应该放在理解和减轻错误上。他还挑战了人工智能民主化的叙事,指出语言和数字鸿沟有效地将全球大部分人口排除在访问领先人工智能模型之外。

最后,日本产业技术综合研究所(AIST)副所长金京淑博士(Dr. Kyoung Sook Kim)阐述了地理空间人工智能(GeoAI)中公平性的关键问题。随着GeoAI越来越多地解释卫星图像、城市基础设施和环境数据,用于灾害响应和城市规划等应用,确保公平的结果变得至关重要。金博士解释说,与文本或图像人工智能不同,地理空间系统在定义和衡量公平性方面面临独特的挑战。数据收集不均、空间覆盖空白以及模型训练过程中的偏见假设可能导致结果偏差,特别影响资源分配和规划决策。她认为,GeoAI中的公平性不能一概而论,而必须考虑区域差异、人口变化和可用数据的质量。她强调了审查早期设计决策的重要性——如何选择、标记和处理数据——以防止偏见嵌入到系统中。金博士倡导共享框架和国际标准,包括新的ISO努力,以建立公平性和数据质量的一致定义,认识到地理、历史和社会复杂性的情境性质需要一种细致入微的方法来构建和应用这些强大的系统。

总的来说,TPC25的这些讨论标志着人工智能研究的重大演变。随着模型复杂性和规模的增长,重点正从单纯的性能基准转向对数据来源、严格的输出评估以及人工智能实际影响的更深入理解。专家们一致认为,人工智能的未来不仅取决于更智能的算法,还取决于它们的设计、构建和部署方式是否负责任和具有包容性。