科学家发现人类和人工智能“思考”方式的重大差异——其影响可能是重大的

AI2026-01-14 17:44:45 裴泽月

我们知道人工智能(AI)不能像人一样思考,但新的研究揭示了这种差异可能如何影响人工智能的决策,从而导致人类可能没有准备好的现实世界后果。

这项研究发表在2025年2月的《机器学习研究汇刊》上,研究了大型语言模型(LLM)形成类比的能力。他们发现,在简单的字母串类比和数字矩阵问题中——任务是通过识别缺失的数字来完成矩阵——人类表现良好,但人工智能表现急剧下降。

在测试人类和人工智能模型在基于故事的类比问题上的稳健性时,该研究发现,这些模型容易受到答案顺序效应的影响——由于实验中的处理顺序而导致的反应差异——并且也更有可能解释。

总的来说,这项研究得出结论,人工智能模型缺乏“零炮”学习能力,即学习者观察训练期间不存在的班级样本,并根据问题对他们所属的班级做出预测。

相关:研究表明,惩罚人工智能并不能阻止它撒谎和作弊——它只是让它隐藏得更好

这项研究的共同作者、阿姆斯特丹大学神经符号人工智能助理教授玛莎·刘易斯举了一个例子,说明人工智能在字母串问题上无法像人类那样进行类比推理。“字母串类比的形式是‘如果abcd转到abce,ijkl转到什么?’大多数人会回答‘ijkm’,而(人工智能)也倾向于给出这种回答,”刘易斯告诉Live Science。“但另一个问题可能是‘如果abbcd转到abcd,ijkkl会去哪里?人类倾向于回答‘ijkl’——模式是删除重复的元素。但GPT-4往往会把(像这样的)问题弄错。“为什么人工智能不能像人类那样思考很重要?刘易斯说,虽然我们可以从特定模式抽象到更一般的规则,但LLM没有这种能力。“他们擅长识别和匹配模式,但不擅长从这些模式中进行概括。”

大多数人工智能应用在某种程度上依赖于数量——可用的训练数据越多,识别的模式就越多。但刘易斯强调,模式匹配和抽象不是一回事。“与其说是数据中的内容,不如说是数据是如何使用的,”她added.To说明其中的含义,人工智能越来越多地用于法律领域的研究、判例法分析和量刑建议。但由于进行类比的能力较低,它可能无法认识到法律先例在出现时如何适用于稍微不同的案件。

鉴于这种鲁棒性的缺乏可能会影响现实世界的结果,该研究指出,这证明我们需要仔细评估人工智能系统,不仅是为了准确性,也是为了其认知能力的鲁棒性。

© 版权声明

相关文章

暂无评论

暂无评论...