AI用户体验:非确定性界面的全新设计策略

Hackernoon

人工智能的出现正在从根本上重塑我们进行用户体验设计的方式。与传统软件不同,AI界面本质上是非确定性的;相同的输入可以产生不同的输出。这种范式转变将核心设计问题从“我们如何构建它?”转向了一个更深远的挑战:“我们能否为用户可靠且安全地交付它?”驾驭这一新领域需要一种实用、以数据为中心的方法。

任何成功的AI产品的基础都在于其数据。糟糕的输入不可避免地导致糟糕的AI性能,使数据质量成为设计师的关键关注点。务必确保数据准确、经过验证,并在可能的情况下使用受控词汇,这通常通过结构化的表单布局和清晰的错误状态来实现。数据还必须完整,收集足够的信息来解决用户任务,并附有微文案解释为什么需要特定字段。日期、货币和单位格式的一致性至关重要,新鲜度也同样重要,确保及时更新并指出数据上次刷新时间。最后,唯一性对于避免冗余至关重要,系统应设计为检测并警告重复条目。设计师在塑造产品如何收集和利用这些高质量数据方面发挥着关键作用,甚至包括设计清晰传达数据要求的权限屏幕。

除了输入,设计师还必须精心定义AI的输出,并预测潜在的故障。这意味着超越屏幕设计,明确可接受的答案——它们的语气、长度和结构——以及至关重要的是,当答案不理想时会发生什么。这包括规划各种状态:短暂处理时间的清晰“思考中”提示,建议用户完善请求的“置信度低”提示,或引导用户了解最重要信息的“空/不佳答案”状态。当数据或权限缺失时,简单的引导流程至关重要。此外,设计师必须考虑现实世界的限制,例如延迟,确定如果响应时间过长应显示什么;以及成本,识别因其开销而需要用户确认的操作。隐私考虑,包括警告和匿名化,也需要明确的设计。在这种背景下,提示本身成为一项关键的设计资产,需要模板化、版本控制,以及有效和有问题输入的示例。

从一开始就为故障而设计不仅是最佳实践;它是一种必然。这意味着使用真实的、通常是混乱的数据进行构建,而不是依赖理想化的示例。一个掩盖AI输出缺陷的精美模型可能会产生误导;一个揭示实际答案及其不完善之处的简单表格能提供更大的价值。最初的产品发布应被视为实验,而非庆祝。功能应增量推出,例如通过功能标志向小部分用户群发布,或通过A/B测试和暗启动。至关重要的是,必须预先设定“红线”:如果质量低于设定的阈值,如果延迟超过目标,或者成本意外飙升,该功能应自动禁用。成功指标必须超越单纯的点击量,以跟踪用户达到有用结果所需的时间、他们编辑AI生成内容的程度,以及他们禁用功能的倾向。在答案出现的地方直接嵌入快速反馈机制,例如带有评论字段的赞/踩按钮,并积极将此输入整合到迭代周期中,这一点至关重要。

确定人工干预如何融入AI工作流是另一个关键的设计决策。AI模型可以充当支持性教练或自主代理;区别在于人类控制的放置。在设置过程中,设计师定义自主级别——系统是仅仅建议、带有审查选项的自动填充,还是自动应用更改——并为团队配备术语词典和黑名单等工具来塑造行为。在使用中,当置信度较低时,应要求预览和明确的“应用”操作,并应设置阈值,将临界情况升级进行人工审查,而不是任其通过。交互后,反馈机制必须易于使用且可见,应发布质量和漂移报告,并建立清晰的例行程序,根据观察到的性能更新提示和策略。一个实用的起点是默认采用辅助模式,用户批准更改,随着测量到的质量和用户信任的增加,逐步扩展自动化。

建立信任不是一个最终结果,而是一项核心设计任务。这意味着明确展示价值和透明度。并排显示新旧结果允许用户比较相同输入的输出。在最初几周默认保持主动监督,并提供清晰的“关闭AI”控制可以显著减少用户焦虑。解释系统做了什么以及为什么,引用来源,显示置信度,并在可能时提供简短的理由,以促进理解。使反馈变得轻松,并明显地证明它影响系统行为,从而增强用户的主动性。最重要的是,直接在界面中展示投资回报——例如“每任务节省的分钟数”或“减少的手动编辑次数”——让用户能够切身体验到好处,而不仅仅是听说。

预测AI功能的采用曲线会更慢也很重要。客户通常需要时间来清理数据、设置访问权限、调整工作流程,并在内部倡导新AI能力的价值。规划分阶段目标并支持内部倡导者进行培训和提供模板可以促进这一过程。最终,成功的AI设计将内容置于像素之上,在完善用户界面之前专注于可靠的答案。它采纳了自主性的梯度,从建议到基于置信度级别的自动应用,并校准风险,在敏感流程中偏爱精确性,即使这意味着不提供答案也比提供错误答案要好。相反,陷阱包括:仅依赖“光鲜的模型”而没有真实数据,期望一个提示解决所有问题,或者在没有强大功能标志和监控的情况下一次性向所有人发布。设计师的核心挑战是围绕一个根本上是概率性的核心,工程化稳定性、控制和信任,使用真实数据进行构建,定义清晰的成功和失败状态,规划不可避免的问题,战略性地放置人工监督,并持续展示切实的价值。实用性和可靠性必须始终优先于美学上的完善。