从ChatGPT制作电子邮件,到推荐电视节目甚至帮助诊断疾病的人工智能系统,机器智能在日常生活中的存在不再是科幻小说。
然而,尽管有速度、准确性和优化的承诺,但仍有一个挥之不去的不适。有些人喜欢使用人工智能工具。其他人感到焦虑、怀疑,甚至被他们背叛。为什么?答案不仅仅是人工智能如何工作。这是关于我们如何工作。我们不理解它,所以我们不信任它。人类更有可能信任他们理解的系统。传统工具感觉很熟悉:你转动钥匙,汽车就启动了。你按下按钮,电梯就到了。但是许多人工智能系统像黑匣子一样运行:你输入一些东西,然后出现一个决定。中间的逻辑是隐藏的。从心理上讲,这令人不安。我们喜欢看到因果关系,我们喜欢能够询问决策。当我们做不到的时候,我们会感到无能为力。
这就是所谓的算法厌恶的原因之一。这是营销研究员伯克利·迪特沃斯特及其同事推广的一个术语。他们的研究表明,人们通常更喜欢有缺陷的人类判断,而不是算法决策,尤其是在目睹哪怕一个算法错误之后。
我们理性地知道,人工智能系统没有情感或议程。但这并不能阻止我们将它们投射到人工智能系统上。当ChatGPT的回应“过于礼貌”时,一些用户会觉得这很怪异。当推荐引擎变得有点过于准确时,它会让人感到侵扰。我们开始怀疑操纵,尽管系统没有自我。
这是拟人化的一种形式——也就是说,将类似人类的意图归因于非人类的系统。传播学教授克利福德·纳斯和拜伦·里夫斯以及其他人已经证明,我们会在社交上对机器做出反应,即使知道它们并不human.One行为科学的奇怪发现是,我们往往比机器错误更能原谅人类的错误。当人类犯了错误时,我们会理解它。我们甚至可能会同情。但是当算法犯了错误,尤其是如果它被定位为客观或数据驱动的,我们会感到被背叛了。
这与关于违反预期的研究有关,当我们对某件事“应该”如何表现的假设被打乱了。它会导致不适和失去信任。我们相信机器是合乎逻辑和公正的。因此,当它们失败时,比如错误分类图像、提供有偏见的输出或推荐非常不合适的东西,我们的反应会更加强烈。我们期望更多。
讽刺的是,人类总是会做出有缺陷的决定。但至少我们可以问他们“为什么?”我们讨厌人工智能出错。对一些人来说,人工智能不仅不熟悉,而且存在上令人不安。教师、作家、律师和设计师突然面临复制部分工作的工具。这不仅仅是自动化,而是什么让我们的技能有价值,以及作为人类意味着什么。
这可以激活一种形式的身份威胁,这是社会心理学家克劳德·斯蒂尔和其他人探索的一个概念。它描述了一种恐惧,即一个人的专业知识或独特性正在被削弱。结果呢?抵制、防御或对技术的彻底排斥。在这种情况下,不信任不是bug——而是一种心理防御机制。对情感的渴望人类信任建立在逻辑之外。我们阅读语气、面部表情、犹豫和眼神交流。人工智能没有这些。它可能很流利,甚至很迷人。但它不能像另一个人那样让我们放心。
这类似于恐怖谷的不适。恐怖谷是日本机器人学家森正弘创造的一个术语,用来描述当某样东西几乎是人类但不完全是人类时的怪异感觉。它看起来或听起来是对的,但有些东西感觉不对劲。这种情感缺失可以解释为冷漠,甚至欺骗。
在一个充满深度伪造和算法决策的世界里,这种缺失的情感共鸣成为一个问题。不是因为人工智能做错了什么,而是因为我们不知道如何感受它。
需要指出的是:并非所有对人工智能的怀疑都是非理性的。算法已经被证明会反映和强化偏见,尤其是在招聘、警务和信用评分等领域。如果你以前被数据系统伤害过或处于不利地位,你不是偏执,而是谨慎。这与一个更广泛的心理学概念有关:习得性不信任。当机构或系统一再让某些群体失望时,怀疑不仅变得合理,而且具有保护性。
告诉人们“信任系统”很少奏效。 必须赢得信任。这意味着设计透明、可质疑和负责任的人工智能工具。这意味着给用户代理,而不仅仅是便利。从心理上讲,我们相信我们所理解的、我们可以质疑的以及尊重我们的东西。
如果我们想让人工智能被接受,它需要感觉不那么像一个黑匣子,而更像是我们被邀请加入的对话。这篇编辑过的文章是根据知识共享许可从《对话》中重新发布的。阅读原文。