La Era
2026年4月9日 · 更新于 UTC 08:03
科技

混合式 AI 硬件:安全性能升级,但价格门槛仍存

配备神经网络处理单元(NPU)的新型设备通过本地运行 AI 来提升网络安全与生产力,但硬件成本的攀升恐将限制其大规模普及。

Rodrigo Vega

1 分钟阅读

混合式 AI 硬件:安全性能升级,但价格门槛仍存
Conceptual image of a neural processing unit chip on a motherboard.

全球科技巨头正加速转向混合式 AI 模型,旨在让数据直接在用户设备上处理,而非完全依赖云端。英特尔、微软、联想和惠普等公司正陆续推出专为本地运行大语言模型而设计的硬件,以期在提升处理速度的同时强化安全防护。

英特尔软件安全架构师 Pablo de Pardo 指出,本地处理在网络安全方面具有显著优势。通过在硬件层面直接执行检测与响应,设备识别威胁的速度远超传统的云端方案。

本地 AI 的硬件要求

“本地 AI 专注于 CPU 遥测技术,能够实现对威胁的实时监测,” de Pardo 解释道。他强调,即便恶意软件经过生成式 AI 工具的伪装,该技术也能将其识别出来,从而为抵御现代网络攻击提供更坚实的防线。

为了支撑这些任务,制造商正在新机型中配备神经网络处理单元(NPU)。英特尔、AMD 和高通等厂商正将这些专用芯片集成到最新产品中,在提升 AI 性能的同时降低整体功耗。

然而,这些设备的系统门槛相当高。专家建议,要实现基本的运行效率,至少需要 16GB 的内存,而处理复杂任务则需要 32GB 或更多。此外,高速固态硬盘(SSD)也是确保数据零延迟访问的必备配置。

德勤(Deloitte)的数据显示,这些工具可将行政工作时间缩短多达 30%。通过本地处理信息,企业还能有效降低数据泄露风险,并更好地遵守隐私法规。

尽管优势明显,但这一转型仍面临严峻的经济与物流挑战。专用芯片和更大内存容量推高了设备的初始售价,使得普通消费者难以企及。

集邦咨询(TrendForce)的市场分析师预测,DRAM 价格的持续上涨将导致硬件成本增加 15%,进一步加剧了市场渗透的难度。除了成本问题,行业还面临技术碎片化的挑战。由于不同设备的算力存在差异,用户在不同机型上的体验将大相径庭。

维护工作同样是一大难题。与通过集中更新的云端系统不同,本地 AI 模型需要为每台设备单独更新。这种去中心化的方式为 IT 部门及个人用户带来了复杂的管理负担。

评论

评论存储在您的浏览器本地。