研究称,“热力学计算”可以将人工智能图像生成的能源消耗削减100亿倍——原型显示出希望,但创建能够与当前模型相媲美的硬件需要艰巨的任务

一份令人费解的新报告称,理论上,“热力学计算”可以大幅降低人工智能生成图像所消耗的能量,只需当前流行工具能量的一百亿分之一。据IEEE Spectrum报道,最近的两项研究暗示了这项新兴技术的潜力,但其支持者承认该解决方案还很初级。
2026-01-29

SK海力士投资100亿美元创建一家总部位于美国的“人工智能解决方案”公司,以重组总部位于加州的Solidigm企业固态硬盘品牌,以支持美国的投资

存储芯片巨头SK海力士正在美国投资100亿美元成立一家新的人工智能解决方案公司,暂定名为人工智能公司。该公司在一份新闻稿中详细说明,新公司将完全获得这项新投资,并能够在其认为合适的情况下部署它,以促进人工智能行业,支持新的人工智能初创企业和发展,并鼓励其在存储芯片开发方面的实力和竞争力。这种投资甚至可能意味着允许更容易获得SK海力士的关键技术,如高带宽存储器(HBM)。
2026-01-29

谷歌探索将人工智能数据中心置于太空-Suncatcher项目希望利用在轨太阳能来扩展人工智能计算

谷歌刚刚宣布,它正在探索将人工智能数据中心送入轨道的想法,以利用太阳的太阳能输出来发电。根据谷歌研究,太阳捕手项目的目标是拥有一个带有谷歌TPU的太阳能卫星星座,这些卫星可以进行光学通信。这将使该公司能够运行一个耗电的数据中心,而不需要在陆地上建造一个数据中心所需的庞大基础设施。
2026-01-29

谷歌部署了新的Axion CPU和第七代Ironwood TPU——训练和推理吊舱击败了英伟达GB300并塑造了“人工智能超级计算机”模型

今天,谷歌云推出了新的面向人工智能的实例,由自己的Axion CPU和Ironwood TPU提供支持。新实例旨在训练和低延迟推理大规模人工智能模型,这些新实例的关键特征是人工智能模型的有效扩展,这得益于谷歌基于铁木的系统的全球规模的巨大扩展。数百万铁木TPU用于训练和推理。铁木是谷歌的第七代张量处理器(TPU),可提供4614个FP8 TFLOPS的性能,并配备192 GB的HBM3E内存,带宽高达7 37 TB s。铁木吊舱可扩展到9,216个人工智能加速器,总共提供42 5个FP8 ExaFLOPS用于训练和推理,这远远超过了英伟达GB300 NVL72系统的FP8能力,后者为0 36 ExaFLOPS。吊舱使用专有的9 6 Tb s芯片间互连网络互连,总共承载大约1 77 PB的HBM3E内存,再次超过了英伟达的竞争平台所能提供的容量。铁木吊舱——基于Axion CPU和铁木TPU——可以连接成运行数十万个TPU的集群,这些集群构成了谷歌被充分称为人工智能超级计算机的一部分。这是一个集成的超级计算平台,将计算、存储和网络结合在一个管理层下。为了提高超大吊舱和人工智能超级计算机的可靠性,谷歌使用了其可重构的结构,称为光路交换,它可以立即绕过任何硬件中断,以维持持续运行。国际数据中心的数据将人工智能超级计算机模型归功于企业客户平均353%的三年投资回报率、28%的信息技术支出和55%的运营效率。
2026-01-29

摩根大通呼吁人工智能支出,称人工智能建设只需要6500亿美元的年收入就能带来10%的回报——相当于每个iPhone用户支付35美元,或者每个Netflix用户“永久”支付180美元

摩根大通的一份报告显示,人工智能行业需要年收入6500亿美元,才能实现公司预计到2030年的10%投资回报。分析师马克斯·温巴赫在X上分享了这份报告,该报告相当于每个iPhone用户每月额外支付34 72美元,或者每个Netflix用户每月支付180美元。
2026-01-29

摩根大通表示,英伟达正准备出售整个人工智能服务器,而不仅仅是人工智能图形处理器和组件——詹森的垂直整合总体计划将提高英伟达的利润,据称从维拉·鲁宾开始

据摩根大通(通过@Jukanlosreve)称,英伟达明年推出的用于人工智能和高性能计算的维拉·鲁宾平台可能标志着人工智能硬件供应链的重大变化,因为英伟达计划向其合作伙伴运送完全组装的10级(L10)VR200计算托盘,其中预装了所有计算硬件、冷却系统和接口。此举将使主要ODM几乎没有设计或集成工作,使他们的生活更轻松,但也将削减利润率,有利于英伟达。该信息在现阶段仍属非官方信息。
2026-01-29

人类与亚马逊签署了300亿美元的协议,将克劳德部署在AWS上——英伟达和微软共同向人工智能公司投资150亿美元,成为Azure、AWS和谷歌的第一家提供商

又是一天,世界上一些最大的科技公司之间达成了另一项里程碑式的基础设施交易。这一次,是克劳德的开发商安思罗皮克。根据微软和英伟达的官方博客,安思罗皮克已经与微软和英伟达建立了新的合作伙伴关系。安思罗皮克现在将使用微软的Azure服务器来运行克劳德,在未来几年购买价值300亿美元的服务器计算容量,并承诺使用英伟达·布莱克威尔和维拉·鲁宾图形处理器帮助开发额外的10亿瓦计算容量。
2026-01-29

SpaceX首席执行官埃隆马斯克表示,太空中的人工智能计算将是5年内成本最低的选择——但英伟达的Jensen Wong表示这是一个“梦想”

除了硬件成本,发电、交付和冷却需求将是未来几年大规模人工智能数据中心的主要制约因素之一。X、xAI、SpaceX和特斯拉首席执行官埃隆·马斯克认为,在未来四到五年内,在轨道上运行大规模人工智能系统可能比在地球上做同样的工作要经济得多。这主要是由于“免费”太阳能和相对容易的冷却。黄仁勋同意千兆瓦或太瓦级人工智能数据中心面临的挑战,但表示太空数据中心目前是一个梦想。太瓦级人工智能数据中心在地球上是不可能的。马斯克在美国-沙特投资论坛上说:“我估计,到目前为止,电力成本、人工智能和太空的成本有效性将远远优于地面人工智能,远在你耗尽地球上的潜在能源之前。”“我认为,即使在4年或5年的时间框架内,进行人工智能计算的成本最低的方式也将是太阳能人工智能卫星。我认为不会超过5年。”英伟达首席执行官黄仁勋指出,与总质量相比,今天英伟达GB300机架内的计算和通信设备非常小,因为几乎整个结构——大约2吨中的1 95吨——本质上是一个冷却系统。
2026-01-29

英伟达的TiDAR实验可以使用混合扩散解码器加速人工智能令牌的生成——新的研究拥有巨大的吞吐量收益,但限制仍然存在

随着公司、国家和意识形态之间的人工智能竞赛继续快速进行,英伟达发布了一篇描述TiDAR的论文。TiDAR是一种解码方法,融合了两种历史上独立的加速语言模型推理的方法。语言模型一次产生一个标记的文本,其中标记是一小块文本,如单词片段或标点符号。
2026-01-28

报告称,随着谷歌双子座人工智能在行业基准中超过ChatGPT,OpenAI宣布“红色代码”——萨姆·奥尔特曼全力以赴推动旗舰LLM,停止其他项目

OpenAI首席执行官萨姆·奥尔特曼在一份内部备忘录中表示,该公司处于“红色代码”状态,这意味着所有其他项目都将退居二线,支持ChatGPT。据《华尔街日报》报道,奥尔特曼在备忘录中表示,该公司需要提高其旗舰人工智能LLM的个性化、速度和可靠性,并允许其涵盖更广泛的主题。
2026-01-28

谷歌的代理人工智能在灾难性故障中未经许可擦除用户的整个硬盘——缓存擦除变成大规模删除事件,代理道歉:“听到这个消息我非常震惊。我无法表达我有多抱歉”

一名使用谷歌反重力系统的开发人员发现,该系统未经他的许可就删除了他的整个D驱动器。谷歌反重力系统是搜索巨头的人工智能驱动的代理集成开发环境(IDE)。根据u Deep-Hyena492在Reddit上的帖子以及他们随后分享的YouTube视频,事件发生时,他们一直在用它来构建一个小应用程序。
2026-01-28

亚马逊推出Trainium3人工智能加速器,在FP8性能上直接与布莱克威尔Ultra竞争——新的Trn3 Gen2 UltraServer从英伟达的剧本中获取垂直扩容笔记

亚马逊网络服务本周推出了用于AI训练和推理的下一代Trainium3加速器。正如AWS所说,新处理器的速度是其前身的两倍,效率提高了四倍。这使其成为AI训练和推理成本方面的最佳解决方案之一。从绝对数量来看,Trainium3提供了高达2517个MXFP8 TFLOPS,与英伟达的Blackwell Ultra相比,这一数字低了近两倍。然而,AWS的Trn3 UltraServer每个机架打包144个Trainium3芯片,并提供0 36 ExaFLOPS的FP8性能,因此与英伟达的NVL72 GB300的性能相匹配。这是一件非常大的事情,因为很少有公司能够挑战英伟达的机架规模AIsystems AWSTrainium3 AWS Trainium3是一款双芯片AI加速器,配备了144 GB的HBM3E内存,使用四个堆栈,可提供高达4 9 TB s的峰值内存带宽。据称,每个计算芯片由台积电使用其3nm级制造工艺制造,包含四个NeuronCore-v4内核(与前代相比,具有扩展的ISA)并连接两个HBM3E内存堆栈。这两个芯片使用专有的高带宽接口连接,并共享128个独立的硬件数据移动引擎(这是Traite架构的关键)、协调芯片之间流量的集体通信内核和四个用于横向扩展连接的NeuronLink v4接口。NeuronCore-v4集成了四个执行块:张量引擎、向量引擎、标量引擎、GPSIMD块和32 MB本地SRAM,由编译器显式管理,而不是缓存控制。从软件开发的角度来看,内核是围绕软件定义的数据流模型构建的,在该模型中,数据由DMA引擎暂存到SRAM中,由执行单元处理,然后写回,因为近内存积累使DMA能够在单个事务中执行读-加-写操作。SRAM在内核之间不一致,用于平铺、暂存和积累,而不是一般缓存。(图片来源:AWS)(图片来源:AWS)张量引擎是用于GEMM、卷积、转置和点积操作的收缩式矩阵处理器,支持MXFP4、MXFP8、FP16、BF16、TF32和带有BF16或FP32输出的FP32输入。每个内核,它在MXFP8 MXFP4中提供315个TFLOPS,在BF16 FP16 TF32中提供79个TFLOPS,在FP32中提供20个TFLOPS,并且它使用M: N模式(例如4:16、4:12、4:8、2:8、2:4、1:4和1:2)实现结构化稀疏加速,允许在支持的稀疏工作负载上实现相同的315个TFLOPS峰值。用于矢量转换的矢量引擎提供大约1 2 TFLOPS FP32、硬件转换为MXFP格式,以及一个快速指数单元,其吞吐量是注意力工作负载标量指数路径的四倍。该单元支持各种数据类型,包括FP8、FP16、BF16、TF32、FP32、INT8、INT16和INT32。标量引擎还提供了大约1 2 TFLOPS FP32,用于跨FP8到FP32和整数数据类型的控制逻辑和小型操作。也许NeuronCore-v4最有趣的组件是GPSIMD块,它集成了八个完全可编程的512位矢量处理器,可以在访问本地SRAM的同时执行用C C++编写的通用代码。GPSIMD被集成到NeuronCore中,因为并非真正的人工智能模型中的所有内容都清晰地映射到张量引擎。现代人工智能工作负载包含大量用于异常数据布局、后处理逻辑、索引和特定模型数学的代码。这些很难或效率低下地表达为矩阵运算,在主机CPU上运行它们会引入延迟和昂贵的数据传输。GPSIMD通过在内核内提供真正的通用可编程矢量单元来解决这个问题,因此这种逻辑以全速直接在张量旁边运行,并使用相同的本地SRAM In简而言之,NeuronCore-v4作为一个紧密耦合的数据流引擎运行,其中张量数学、矢量变换、标量控制和自定义代码都共享一个本地32MB暂存板,并由Neuron编译器而不是Nvidia硬件上使用的扭曲调度器进行编排。
2026-01-28

30年前的今天,IBM推出了深蓝国际象棋超级计算机原型——两年后,在第二次尝试中,它击败了大师加里·卡斯帕罗夫

1995年12月5日,IBM揭开了深蓝原型的面纱,这是一款旨在击败世界上最伟大棋手的超级计算机。两年后,经过一系列软件和硬件修改,IBM成功实现了目标。1997年,深蓝在纽约市的一场重赛中战胜了巅峰时期的国际象棋大师加里·卡斯帕罗夫,这是一场著名的胜利。这场胜利对IBM来说是一个转折点,他越来越被描绘成一个过气的人,股价也很糟糕。这也是该公司计算方法的基石,从单纯的硬件块转向“思维系统”
2026-01-28

AMD首席执行官Lisa Su“断然”拒绝谈论人工智能泡沫——称这种说法“有些夸大其词”

AMD首席执行官丽莎·苏利用她在《连线》杂志旧金山大采访会议上的露面,反驳了越来越多的关于人工智能行业过热的猜测。当被问及该行业是否处于泡沫中时,苏“断然”回答说不,认为担忧“有些夸大”,人工智能仍处于起步阶段。根据苏的说法,AMD需要准备好为未来提供芯片——“没有理由不继续推动这项技术。”
2026-01-28

SLI中的两个GTX 580负责我们今天的人工智能——英伟达的黄透露,深度学习的发明始于2012年的两个旗舰费米图形处理器

深度学习是人工智能行业背后的动力,它使人工智能能够自行学习,由旨在大规模运行机器学习算法的图形处理器提供支持。然而,深度学习的发明是基于并非明确用于这种计算的硬件。英伟达首席执行官黄仁勋在乔·罗根播客中透露,早在2012年,第一个开发深度学习的研究人员就在SLI的一对3GB GTX 580上完成了这一切。
2026-01-28

中国海军基地3D成像到50厘米分辨率在单颗卫星通行证-美国空间情报公司吹嘘精确的高分辨率3D地形图只需10小时即可创建

美国卫星公司Vantor刚刚展示了其卫星成像能力,分享了位于中国最南端海南岛的榆林海军基地的高度详细的图像。该公司在X上发布了高度详细的照片,声称其分辨率为50厘米(约20英寸),空间精度为4-m以下(不到14英尺)。更重要的是,这只需要一次卫星通行证就可以实现,并且在10小时内得到处理。尽管这不会给你地面上发生的事情的实时视频,但它仍然为任何访问数据的人提供了更多的信息,他们可以用于分析、规划和侦察。此外,借助Vantor的Forge软件,你可以在全3D中探索图像。
2026-01-28

据报道,微软、谷歌、开放人工智能和人工智能联手组建代理人工智能联盟——由Linux基金会支持的组织将为人工智能代理创建开源标准

据《信息报》报道,许多世界上最大的人工智能科技公司将开始合作解决一些共同的问题。微软、谷歌、Anthropic、OpenAI和许多其他相关公司将作为代理人工智能基金会的一部分进行合作。该小组由Linux基金会管理,将致力于为人工智能代理开发关键的开源工具和标准,并将在解决关键技术问题方面分享他们的发现。
2026-01-28