科学家发现人类和人工智能“思考”方式的重大差异——其影响可能是重大的

AI 2026-01-14 17:44:45 裴泽月

我们知道人工智能(AI)不能像人一样思考,但新的研究揭示了这种差异可能如何影响人工智能的决策,从而导致人类可能没有准备好的现实世界后果。

这项研究发表在2025年2月的《机器学习研究汇刊》上,研究了大型语言模型(LLM)形成类比的能力。他们发现,在简单的字母串类比和数字矩阵问题中——任务是通过识别缺失的数字来完成矩阵——人类表现良好,但人工智能表现急剧下降。

在测试人类和人工智能模型在基于故事的类比问题上的稳健性时,该研究发现,这些模型容易受到答案顺序效应的影响——由于实验中的处理顺序而导致的反应差异——并且也更有可能解释。

总的来说,这项研究得出结论,人工智能模型缺乏“零炮”学习能力,即学习者观察训练期间不存在的班级样本,并根据问题对他们所属的班级做出预测。

相关:研究表明,惩罚人工智能并不能阻止它撒谎和作弊——它只是让它隐藏得更好

这项研究的共同作者、阿姆斯特丹大学神经符号人工智能助理教授玛莎·刘易斯举了一个例子,说明人工智能在字母串问题上无法像人类那样进行类比推理。“字母串类比的形式是‘如果abcd转到abce,ijkl转到什么?’大多数人会回答‘ijkm’,而(人工智能)也倾向于给出这种回答,”刘易斯告诉Live Science。“但另一个问题可能是‘如果abbcd转到abcd,ijkkl会去哪里?人类倾向于回答‘ijkl’——模式是删除重复的元素。但GPT-4往往会把(像这样的)问题弄错。“为什么人工智能不能像人类那样思考很重要?刘易斯说,虽然我们可以从特定模式抽象到更一般的规则,但LLM没有这种能力。“他们擅长识别和匹配模式,但不擅长从这些模式中进行概括。”

大多数人工智能应用在某种程度上依赖于数量——可用的训练数据越多,识别的模式就越多。但刘易斯强调,模式匹配和抽象不是一回事。“与其说是数据中的内容,不如说是数据是如何使用的,”她added.To说明其中的含义,人工智能越来越多地用于法律领域的研究、判例法分析和量刑建议。但由于进行类比的能力较低,它可能无法认识到法律先例在出现时如何适用于稍微不同的案件。

鉴于这种鲁棒性的缺乏可能会影响现实世界的结果,该研究指出,这证明我们需要仔细评估人工智能系统,不仅是为了准确性,也是为了其认知能力的鲁棒性。

© 版权声明

相关文章

研究称,“热力学计算”可以将人工智能图像生成的能源消耗削减100亿倍——原型显示出希望,但创建能够与当前模型相媲美的硬件需要艰巨的任务

一份令人费解的新报告称,理论上,“热力学计算”可以大幅降低人工智能生成图像所消耗的能量,只需当前流行工具能量的一百亿分之一。据IEEE Spectrum报道,最近的两项研究暗示了这项新兴技术的潜力,但其支持者承认该解决方案还很初级。
2026-01-29

SK海力士投资100亿美元创建一家总部位于美国的“人工智能解决方案”公司,以重组总部位于加州的Solidigm企业固态硬盘品牌,以支持美国的投资

存储芯片巨头SK海力士正在美国投资100亿美元成立一家新的人工智能解决方案公司,暂定名为人工智能公司。该公司在一份新闻稿中详细说明,新公司将完全获得这项新投资,并能够在其认为合适的情况下部署它,以促进人工智能行业,支持新的人工智能初创企业和发展,并鼓励其在存储芯片开发方面的实力和竞争力。这种投资甚至可能意味着允许更容易获得SK海力士的关键技术,如高带宽存储器(HBM)。
2026-01-29

谷歌探索将人工智能数据中心置于太空-Suncatcher项目希望利用在轨太阳能来扩展人工智能计算

谷歌刚刚宣布,它正在探索将人工智能数据中心送入轨道的想法,以利用太阳的太阳能输出来发电。根据谷歌研究,太阳捕手项目的目标是拥有一个带有谷歌TPU的太阳能卫星星座,这些卫星可以进行光学通信。这将使该公司能够运行一个耗电的数据中心,而不需要在陆地上建造一个数据中心所需的庞大基础设施。
2026-01-29

科学家发现人类和人工智能“思考”方式的重大差异——其影响可能是重大的 暂无评论