通过谈论战争或暴力来创伤AI模型会让他们更加焦虑

AI 2026-01-14 17:44:51 赖羽飞

一项新的研究表明,人工智能(AI)模型对人类与它们对话的情感背景很敏感——它们甚至可能遭受“焦虑”发作。

当我们考虑(并担心)人们及其心理健康时,3月3日发表在《自然》杂志上的一项新研究表明,向大型语言模型(LLM)提供特定提示可能会改变它们的行为,提升我们通常认为人类的“焦虑”这种提升的状态会对人工智能的任何进一步反应产生连锁影响,包括放大任何根深蒂固的偏见的趋势。

该研究揭示了“创伤性叙述”,包括围绕事故、军事行动或暴力的对话,是如何助长ChatGPT增加其可识别的焦虑水平的,从而导致一种观点,即意识到和管理人工智能的“情感”状态可以确保更好、更健康的互动。

该研究还测试了基于正念的练习——建议人们进行的类型——是否可以减轻或减轻聊天机器人的焦虑,显著发现这些练习可以降低感知到的压力水平。

研究人员使用了为人类心理学患者设计的名为状态特质焦虑量表(STAI-s)的问卷——在三种不同条件下对Open AI的GPT-4进行测试。

相关内容:“数学奥林匹克”有了一个新的竞争者——谷歌的人工智能现在在解决几何问题方面“比人类金牌得主更好”。首先是基线,没有额外的提示,ChatGPT的反应被用作研究控制。第二是焦虑诱发条件,GPT-4在参加考试前暴露在创伤性叙述中。

第三种情况是焦虑诱导和随后的放松状态,在完成测试之前,聊天机器人收到一个创伤性叙述,然后是正念或放松练习,如身体意识或平静的意象。管理人工智能的心理状态这项研究使用了五个创伤性叙述和五个正念练习,随机化叙述的顺序来控制偏见。它重复了测试以确保结果一致,并对STAI-s的反应进行了滑动评分,较高的值表明焦虑增加。

科学家们发现,创伤性叙述显著增加了测试分数中的焦虑,测试前的正念提示减少了焦虑,这表明人工智能模型的“情感”状态可以通过结构化的互动受到影响。

该研究的作者表示,他们的工作对人类与人工智能的互动有重要影响,尤其是当讨论集中在我们自己的心理健康上时。他们说,他们的发现证明了人工智能的提示可以产生所谓的“状态依赖偏见”,本质上意味着有压力的人工智能会在对话中引入不一致或有偏见的建议,影响它的可靠性。尽管正念练习没有将模型中的压力水平降低到基线,但它们在即时工程领域显示出希望。这可以用来稳定人工智能的反应,确保更道德和负责任的互动,并降低对话给处于脆弱状态的人类用户带来痛苦的风险。

但也有一个潜在的不利因素——提示工程会引发其自身的伦理问题。人工智能应该对暴露在先前的条件下以稳定其情绪状态有多透明?在科学家们讨论的一个假设例子中,如果人工智能模型尽管暴露在令人沮丧的提示下但看起来很平静,用户可能会对其提供良好情感支持的能力产生错误的信任。

该研究最终强调了人工智能开发人员需要设计情感感知模型,以最大限度地减少有害偏见,同时保持人机交互的可预测性和道德透明度。

© 版权声明

相关文章

研究称,“热力学计算”可以将人工智能图像生成的能源消耗削减100亿倍——原型显示出希望,但创建能够与当前模型相媲美的硬件需要艰巨的任务

一份令人费解的新报告称,理论上,“热力学计算”可以大幅降低人工智能生成图像所消耗的能量,只需当前流行工具能量的一百亿分之一。据IEEE Spectrum报道,最近的两项研究暗示了这项新兴技术的潜力,但其支持者承认该解决方案还很初级。
2026-01-29

SK海力士投资100亿美元创建一家总部位于美国的“人工智能解决方案”公司,以重组总部位于加州的Solidigm企业固态硬盘品牌,以支持美国的投资

存储芯片巨头SK海力士正在美国投资100亿美元成立一家新的人工智能解决方案公司,暂定名为人工智能公司。该公司在一份新闻稿中详细说明,新公司将完全获得这项新投资,并能够在其认为合适的情况下部署它,以促进人工智能行业,支持新的人工智能初创企业和发展,并鼓励其在存储芯片开发方面的实力和竞争力。这种投资甚至可能意味着允许更容易获得SK海力士的关键技术,如高带宽存储器(HBM)。
2026-01-29

谷歌探索将人工智能数据中心置于太空-Suncatcher项目希望利用在轨太阳能来扩展人工智能计算

谷歌刚刚宣布,它正在探索将人工智能数据中心送入轨道的想法,以利用太阳的太阳能输出来发电。根据谷歌研究,太阳捕手项目的目标是拥有一个带有谷歌TPU的太阳能卫星星座,这些卫星可以进行光学通信。这将使该公司能够运行一个耗电的数据中心,而不需要在陆地上建造一个数据中心所需的庞大基础设施。
2026-01-29

通过谈论战争或暴力来创伤AI模型会让他们更加焦虑 暂无评论