web|Facebook 总监告诉你,以 AI 为中心的产品设计有何不同?( 四 )


即使 AI 可以访问数据,它仍然需要来自用户的持续反馈,以便继续学习和升级。重要的是,我们在设计反馈循环时,不要为用户增加工作负担。我们可以通过交互设计来减少反馈循环中的摩擦,也可以让产品变得复杂。
理想情况下,我们可以在不干扰用户的情况下促进 AI 自主学习。使用过时数据或有偏差的数据去构建 AI ,对用户来说是有害的。随着时间的推移,不持续学习的 AI 将无法提供价值。
随着人们越来越关注个人数据泄露问题(包括个人隐私),AI 设计师需要考虑如何将数据的使用透明化,并控制 AI 的使用方式。大多数用户其实并不真正了解 AI 是如何被使用的,媒体和科幻小说以可怕的方式描绘了 AI 。
当 AI 被很好地控制,它可以被视为是一种工具,不过在它被理解之前,会被人们所恐惧。正是出于这个原因,作为 AI 设计师,我们有义务在创建 AI 工具时,保持警觉,并提升其透明度。
问问自己以下几个问题:

  • 人们需要知道什么,才能了解他们的数据是如何被使用,或如何被存储在该产品中的?
  • 如何才能使正在收集的数据保持透明化和清晰?用户对所收集的数据应该有什么权限?他们是否能够打开和关闭 AI ,或者告诉它具体哪些类型的数据可以收集,哪些类型的数据不能收集?
  • 如果用户决定限制共享他们的数据,可以如何优雅地降低体验,让他们不会觉得产品被破坏了?
  • 这种降级实际上是如何为用户传递 AI 价值的,从而让他们感受到价值并再次选择加入?
可以想象一种情况,谷歌文档为用户提供关闭 AI 的权力, AI 不再为用户提供完成句子的建议,并且无法很好地进行拼写或语法检查。关闭 AI 的用户不会允许系统访问 AI 需要学习的数据。如果太多人关闭该功能, AI 将无法为任何人正常工作。
使 AI 的工作过程透明化,并让用户获得控制权是如此重要,原因之一便是 AI 为产品设计团队提供了正确的激励措施。如果用户可以选择打开或关闭 AI,设计师必须努力设计出最有用且最有价值的工具,从而让用户认为,值得让 AI 向他们学习。
4. 步骤四:原型,原型与负面影响分析一旦你有了一个解决方案或一组测试选项,按照传统产品设计流程,下一步应该根据解决方案进行原型设计,以便对其进行更彻底的测试和审查。原型看起来是一个功能正常的应用程序,或者是一组草图。通过原型,你可以在可用性测试的参与者面前验证你的想法。
我之前提到过,我们投放到市场的技术产品的风险正在稳步增加。正是出于这个原因,花时间去思考产品概念的潜在负面后果很重要。负面影响分析可以由一个工作团队完成,或者更好的是由直接设计团队之外的,可以提供新观点的团队完成。这一步的目的是确定该产品上市后可能产生的潜在负面影响。
在负面影响分析中需要考虑的一些问题: