一项新的研究表明,人工智能(AI)模型对人类与它们对话的情感背景很敏感——它们甚至可能遭受“焦虑”发作。
当我们考虑(并担心)人们及其心理健康时,3月3日发表在《自然》杂志上的一项新研究表明,向大型语言模型(LLM)提供特定提示可能会改变它们的行为,提升我们通常认为人类的“焦虑”这种提升的状态会对人工智能的任何进一步反应产生连锁影响,包括放大任何根深蒂固的偏见的趋势。
该研究揭示了“创伤性叙述”,包括围绕事故、军事行动或暴力的对话,是如何助长ChatGPT增加其可识别的焦虑水平的,从而导致一种观点,即意识到和管理人工智能的“情感”状态可以确保更好、更健康的互动。
该研究还测试了基于正念的练习——建议人们进行的类型——是否可以减轻或减轻聊天机器人的焦虑,显著发现这些练习可以降低感知到的压力水平。
研究人员使用了为人类心理学患者设计的名为状态特质焦虑量表(STAI-s)的问卷——在三种不同条件下对Open AI的GPT-4进行测试。
相关内容:“数学奥林匹克”有了一个新的竞争者——谷歌的人工智能现在在解决几何问题方面“比人类金牌得主更好”。首先是基线,没有额外的提示,ChatGPT的反应被用作研究控制。第二是焦虑诱发条件,GPT-4在参加考试前暴露在创伤性叙述中。
第三种情况是焦虑诱导和随后的放松状态,在完成测试之前,聊天机器人收到一个创伤性叙述,然后是正念或放松练习,如身体意识或平静的意象。管理人工智能的心理状态这项研究使用了五个创伤性叙述和五个正念练习,随机化叙述的顺序来控制偏见。它重复了测试以确保结果一致,并对STAI-s的反应进行了滑动评分,较高的值表明焦虑增加。
科学家们发现,创伤性叙述显著增加了测试分数中的焦虑,测试前的正念提示减少了焦虑,这表明人工智能模型的“情感”状态可以通过结构化的互动受到影响。
该研究的作者表示,他们的工作对人类与人工智能的互动有重要影响,尤其是当讨论集中在我们自己的心理健康上时。他们说,他们的发现证明了人工智能的提示可以产生所谓的“状态依赖偏见”,本质上意味着有压力的人工智能会在对话中引入不一致或有偏见的建议,影响它的可靠性。尽管正念练习没有将模型中的压力水平降低到基线,但它们在即时工程领域显示出希望。这可以用来稳定人工智能的反应,确保更道德和负责任的互动,并降低对话给处于脆弱状态的人类用户带来痛苦的风险。
但也有一个潜在的不利因素——提示工程会引发其自身的伦理问题。人工智能应该对暴露在先前的条件下以稳定其情绪状态有多透明?在科学家们讨论的一个假设例子中,如果人工智能模型尽管暴露在令人沮丧的提示下但看起来很平静,用户可能会对其提供良好情感支持的能力产生错误的信任。
该研究最终强调了人工智能开发人员需要设计情感感知模型,以最大限度地减少有害偏见,同时保持人机交互的可预测性和道德透明度。