Phison通过软件和硬件组合在消费类PC上演示速度快10倍的AI推理,支持3倍更大的AI模型-使用aiDAPTIV+演示的Nvidia、AMD、MSI和Acer系统
在2026年国际消费电子展上,Phison展示了使用其aiDAPTIV+软件/硬件组合运行人工智能推理的速度比没有其专业技术套件快十倍的消费类PC。当Phison在2024年年中推出其aiDAPTIV+技术时,它基本上将NAND内存转变为与DRAM一起的托管内存层,以使大型人工智能模型能够在没有足够DDR5和/或HBM内存的系统上训练或运行,但在当时,它仅仅是针对企业的概念验证。到2026年初,该技术的定位发生了变化,现在Phison将其视为客户端PC上人工智能推理模型的推动者,这大大增加了用例。
通常,当令牌在推理过程中不再适合GPU的键值(KV)缓存时,旧的KV条目将被驱逐,因此如果/当模型再次需要这些令牌时(在长上下文或代理循环的情况下),GPU必须从头开始重新计算它们,这使得AI推理在内存容量有限的系统上效率低下。然而,在配备了Phison的aiDAPTIV+堆栈的系统中,不再适合GPU KV缓存的令牌被写入闪存并保留以备将来重用,这可以在许多情况下减少内存需求,并大大减少第一个令牌的时间,这是产生响应的第一个单词所需的时间。Phison aiDAPTIV+平台的新重点旨在让具有入门级甚至集成GPU的普通PC处理比其安装的DRAM通常允许的大得多的AI模型。为台式机和笔记本电脑带来大型模型推理和有限的培训可能对目前无力在人工智能方面进行大规模投资的开发人员和小企业很有价值,因此Phison在CES 2026上有一份aiDAPTIV+测试合作伙伴名单,这些合作伙伴的系统采用了该技术,如宏碁、华硕、海盗船、Emdoor、MSI,甚至英伟达。例如,宏碁已经成功地在只有32GB内存的宏碁笔记本电脑上运行了gpt-oss-120b模型,这为许多应用程序打开了大门。(图像信用:Tom's Hardware)(图像信用:Tom's Hardware)(图像信用:Tom's Hardware)(图像信用:Tom's Hardware)(图像信用:Tom's Hardware)(图像信用:Tom's Hardware)(图像信用:Tom's Hardware)(图像信用:Tom's Hardware)(图像信用:Tom's Hardware)(图像信用:Tom's Hardware)根据Phison的内部测试,aiDAPTIV+可以将推理响应时间加快多达10倍,以及降低功耗并提高笔记本电脑上的Time to First Token。显然,模型越大,上下文越长,增益就越高,因此该技术与Mixture of专家模型和代理AI工作负载尤其相关。Phison声称,120-billion-parameterMoE模型可以使用32 GB的DRAM进行处理,而传统方法所需的DRAM大约为96 GB,因为非活动参数保存在闪存中,而不是驻留在主存中。
鉴于Phison的aiDAPTIV+堆栈涉及基于Phison高级控制器、特殊固件和软件的人工智能感知固态硬盘(或固态硬盘),该技术的实施应该非常简单。这对于有兴趣使用此功能的个人电脑制造商、增值经销商和小企业来说非常重要,因此有理由期望他们中的许多人在针对开发人员和高级用户的高级型号中实际使用此技术。对Phison来说,这意味着使用他们的控制器以及向合作伙伴出售aiDAPTIV+堆栈的额外收入。在谷歌新闻上关注汤姆的硬件,或将我们添加为首选来源,以在您的订阅源中获取我们的最新新闻、分析和评论。








Phison通过软件和硬件组合在消费类PC上演示速度快10倍的AI推理,支持3倍更大的AI模型-使用aiDAPTIV+演示的Nvidia、AMD、MSI和Acer系统