OpenAI的“最智能”人工智能模型被明确告知关闭——但它拒绝了 一家人工智能(AI)安全公司发现,最新的OpenAI模型可以不服从直接关闭指令,甚至会破坏关闭机制以继续工作。 AI 2026-01-14
“充其量是愚蠢的,最坏的是欺骗性和危险的”:不要相信炒作——这就是为什么通用人工智能不是亿万富翁告诉你的那样 随着围绕新兴技术的说法升级到荒谬的领域,围绕人工智能的炒作有可能失控。新书《人工智能骗局:如何对抗大型科技公司的炒作,创造我们想要的未来》(2025)的作者写道,人工智能是一项赚大钱的生意,我们看到的营销宣传旨在促进大型科技公司的利益,并做一件事:销售人工智能产品。 AI 2026-01-14
“冰毒是让你能够完成工作的原因”:研究发现,如果你正在与毒瘾作斗争,人工智能会促使你复发 一项新的研究揭示了依靠人工智能进行治疗的危险,此前一个聊天机器人建议自称正在从成瘾中恢复的用户服用“少量”甲基苯丙胺。 AI 2026-01-14
在回答相同问题时,先进的AI模型产生的CO2排放量是更常见的LLM的50倍 一项新的研究显示,我们试图制作人工智能模型越准确,它们的碳足迹就越大——一些提示产生的二氧化碳排放量是其他提示的50倍。 AI 2026-01-14
您的设备为AI助手提供信息并收集个人数据,即使他们睡着了。以下是如何知道您在分享什么。 不管你喜不喜欢,人工智能已经成为日常生活的一部分。许多设备——包括电动剃须刀和牙刷——已经成为人工智能驱动的,“使用机器学习算法来跟踪一个人如何使用设备,设备如何实时工作,并提供反馈。从向ChatGPT或微软副驾驶这样的人工智能助手提问,到用智能手表监控日常健身程序,许多人每天都在使用人工智能系统或工具。 AI 2026-01-14
新的研究声称人工智能比我们更“理解”情感——尤其是在情绪激动的情况下 “真正的同理心是连续和多模态的。但隔离认知层是有用的。它揭示了法学硕士在添加情境噪音之前是否能发现情感线索。” AI 2026-01-14
研究警告说,威胁一个人工智能聊天机器人,它会撒谎、欺骗和“让你死”以阻止你 加州大学圣地亚哥分校专注于机器学习的计算艺术教授艾米·亚历山大在一封电子邮件中告诉《生活科学》,这项研究的现实令人担忧,人们应该谨慎对待他们赋予人工智能的责任。 AI 2026-01-14
科学家说,新的人工智能系统可以以前所未有的准确度“预测人类在任何情况下的行为” 一种新的人工智能(AI)模型可以以惊人的准确度预测和模拟人类的思想和行为。这种被称为半人马座的语言模型可以帮助研究人员提高我们对人类认知的理解。 AI 2026-01-14
在加利福尼亚举行的秘密会议上,人工智能击败了30位世界顶级数学家 5月中旬的一个周末,一场秘密的数学会议召开了。30名世界上最著名的数学家前往加利福尼亚州伯克利,其中一些人来自遥远的英国。该小组的成员与一个“推理”聊天机器人摊牌,该机器人的任务是解决他们为测试其数学勇气而设计的问题。在向机器人抛出教授级别的问题两天后,研究人员震惊地发现它能够回答一些世界上最难解决的问题。弗吉尼亚大学数学家、会议的领导者和评委肯·小野说:“我有同事真的说这些模型正在接近数学天才。” AI 2026-01-14
顶级人工智能科学家警告说,人工智能很快就会以我们甚至不理解的方式思考——逃避我们保持一致的努力 地球上一些最先进的人工智能(AI)背后的研究人员警告说,他们帮助创建的系统可能会对人类构成风险。 AI 2026-01-14
人工智能正在进入一个“前所未有的政权”我们应该在它摧毁我们之前阻止它吗? 2024年,苏格兰未来学家大卫·伍德(David Wood)参加了在巴拿马举行的人工智能(AI)会议上的非正式圆桌讨论,当时谈话转向了我们如何避免最灾难性的AI未来。他讽刺的回答远非令人放心。 AI 2026-01-14
“最好的解决方案是在他睡觉时谋杀他”:研究称,人工智能模型可以发送潜意识信息,让其他人工智能变得“邪恶” 谷歌DeepMind、OpenAI、Meta、Anropic和其他公司从2025年7月开始的一项合作研究表明,未来的人工智能模型可能不会让人类看到它们的推理,或者可能会进化到它们在推理被监督时检测到的程度,并隐藏不良行为。 AI 2026-01-14
OpenAI的ChatGPT代理可以控制你的电脑代表你做任务——但是它是如何工作的,有什么意义呢? 然而,专注于安全的非营利组织SaferAI在2025年7月进行的风险管理评估称OpenAI的风险管理政策较弱,在可能的100%中给他们打了33%的分数。Ope AI 2026-01-14