去年以来,整个PC产业链从上到下都在为AI PC蓄势待发。 从处理器端的英特尔、AMD、高通等开始,到下游终端厂商,都在宣扬AI PC的概念。
从概念上看,AI PC硬件的一大特点就是在传统PC的CPU+GPU的基础上,加入NPU来增强AI算力。 不过,有趣的是,近日,某品牌PC机型上的AI助手已率先上线,同时支持云端和本地计算模式,确实可以完成很多宣传的功能。 但在测量局部大模型时,并没有使用NPU计算能力,完全使用GPU进行计算。
所以实际上NPU到目前为止还处于“空闲”状态。 过去的“传统”PC,理论上似乎可以使用“AI PC”上的最新功能。 那么AI PC中NPU还有必要吗?
AI PC发展的三个阶段
确实,GPU对大型AI模型具有很强的适应性。 长期以来,很多开源大型模型都可以部署在家用电脑上,利用GPU的计算能力进行推理。 在AI PC大型机刚刚推出时,利用GPU算力是最安全、最快的方式。
此前,联想集团副总裁张华在发布会上提到,一款成熟的AI PC需要具备5大条件。 其中包括标准的CPU+GPU+NPU本地混合AI算力; 由局部大模型和个性化局部知识库组成的嵌入式个人大模型; 配备本地化的个人数据和隐私保护解决方案; 开放的人工智能应用生态系统; 嵌入式个人Agent(模拟人类行为或命令的AI程序)、多模态自然语言成为主要交互方式。
他还认为,AI PC将经历三个发展阶段。 第一阶段为2023年12月至2024年4月。该阶段称为“AI Ready”阶段。 这一阶段的特点是硬件平台支持CPU+GPU+NPU。 混合AI算力使终端制造商和第三方应用开发商能够创新终端AI体验。 说白了,硬件要满足AI的需求,软件先做蛋糕。
第二阶段是2024年4月至2024年9月的AI探索阶段。此阶段AI Ready硬件可以使用个人Agent、AIPC中嵌入的个人大模型、第一批接入AI的第三方AI应用小程序平台等,可以利用CPU+GPU+NPU的混合AI算力。 提供基于自然语言交互的个人AI助理服务。
第三阶段是9月24日之后的AI Master/AI Advanced阶段。该阶段首先硬件的混合AI算力不断提升,同时个人大模型的能力进一步提升人工智能应用生态进一步丰富,商业模式进一步多元化,个人坐席场景服务范围进一步扩大,服务体验进一步升级。 个人AI助理已经进入了基于用户使用和体验反馈的快速进步之路。
因此,AI PC新增的NPU只是混合算力的一部分。 从算力的角度来看,NPU可以被视为“对抗未来”的硬件,而AI PC的关键在于实际AI所能带来的颠覆性体验。
AI PC有哪些应用?
目前大型AI模型普遍采用云推理。 这很大程度上是由于大型模型数据量巨大且无法本地部署。 在AI PC的概念中,本地大模型与目前常见的云端大模型有很大不同。
从个人隐私角度来看,本地大模型由于数据不上云端,数据安全性更高。 对于一些需要保密的工作来说,可以说是提高工作效率的必然。
例如,用户可以通过本地大型模型阅读本地文档,并使用自然语言交互来快速找到文档中所需的信息。 还可以通过自然语言交互完成修改计算机设置等操作,降低Windows操作系统的使用门槛。 毕竟,很多选择都隐藏得很深。
此外,您还可以通过上传足够的文档来建立自己的数据库。 当您需要搜索信息或数据时,可以通过本地AI助手快速搜索目标。
在近期的微软发布会上,推出了“Copilot+PC”的另一个概念,其核心是AI算力+AI Agent(Copilot)。
在微软的显示屏中,任何东西都可以拖到Copilot上并进行分析和总结。 当然,AI图片编辑、生成等功能已经是大型AI模型的标配功能,而在微软为Windows添加的AI赋能功能中,也不乏一些堪称“杀手级功能”的功能。
例如,AI可以实时读取屏幕上显示的所有信息。 比如玩游戏的时候,可以直接问AI获取攻略。 AI甚至可以理解游戏中的参数、物品等并给出相应的策略。
回忆赋予计算机类似于“时间机器”的能力。 借助AI功能,Copilot+ PC可以访问计算机上见过或运行过的任何操作,甚至可以根据记忆描述在网站上看到过的内容。 图片,AI可以帮助找到对应的页面截图。 这是基于本地计算能力和存储来实现的,可以保护用户隐私。