PC 正在「物种进化」:英特尔如何用混合 AI 制造你的数字分身?

从ChatGPT引爆“头脑竞争”,到工具调用补齐“四肢能力”,再到智能体补全“身体”,AI正在完成一次从能力到形态的跃迁。

但真正的分水岭,不在模型参数规模,而在计算范式的迁移——当AI开始接管任务执行、理解长期记忆、主动调用资源,传统PC的角色也被迫改写。

2026年,一个新的命题浮出水面:PC是否正在从“人使用的工具”,转变为“替人行动的智能体载体”?

英特尔给出的答案,是“智能体PC”,以及支撑这一形态的底层路径——Hybrid AI(混合AI)。

这不仅是一次产品升级,更是一场从架构到生态的系统性重构。

从“工具”到“分身”——智能体PC重写人机关系

在这场分享的一开始,英特尔中国区技术部总经理高宇没有谈芯片,也没有谈性能,而是抛出了一个更基础的问题:为什么我们需要重新定义PC?

“过去几年,大模型解决的是‘会不会回答问题’,”高宇在现场回顾道,“但今天大家已经不满足于答案,而是希望AI直接把事情做完。”

当AI开始具备调用工具、拆解步骤、持续运行的能力,一种新的形态开始出现:它不只是对话对象,而是可以替你操作电脑的“执行者”。

这意味着,PC的核心逻辑正在发生改变。

在传统模式下,人始终处在流程的中心。你需要打开浏览器查资料,再切换到文档整理内容,必要时调用多个软件拼接结果。每一步都依赖人工操作,PC的角色更像是一个响应输入的工具集合。

但在智能体PC中,“用户不需要再一步步操作软件,而是直接表达目标,”高宇解释道,“剩下的流程由Agent完成。”

从查找信息、整理内容,到调用本地或云端能力生成结果,整个过程可以在后台自动推进。用户看到的,不再是多个应用的切换,而是一个任务从开始到结束的连续过程。

这种变化带来的,不只是效率提升,更是使用方式的根本转移。

高宇在现场给出过一个很直观的对比:过去我们使用PC,是在“学习工具”;而未来更多时候,是在“描述需求”。前者要求人适应机器的逻辑,后者则要求机器理解人的意图。

当任务成为核心,另一个被重新定义的,是“记忆”。

传统PC的记忆,停留在文件与路径层面——你需要记住内容存在哪里、如何打开。而在智能体PC中,系统开始记录更高维的信息:你的使用习惯、偏好选择、上下文关联,甚至是尚未完成的任务状态。

高宇解释说,Agent最重要的能力之一,是它能记住你是谁,而不是只记住你刚刚说了什么。

这让PC第一次具备了一种“连续性”。它不再是每次启动都从零开始的工具,而是一个可以逐渐理解用户、不断调整行为的系统。

进一步看,这种能力正在改变PC的“工作方式”。

传统交互是同步的——你操作一步,系统反馈一步。而在智能体PC中,越来越多的任务可以被异步执行:你提出需求,系统在后台持续运行,在合适的时间交付结果。

“未来PC很可能是一直在工作的,”高宇在分享中提到,“即使你不在,它也在帮你处理事情。”

当执行能力、长期记忆与持续运行结合在一起,PC就不再只是被使用的设备,而是某种意义上的“代理”。

支撑这种转变的,是一整套新的系统结构。在英特尔的描述中,智能体PC包含了多个关键组件:负责理解与推理的大模型,负责任务调度的Agent Runtime,负责执行的工具链,以及贯穿始终的记忆与多模态交互能力。

这不再是传统软件架构的延伸,而更像是一个可以独立运转的“数字个体”。

也正因如此,智能体PC带来的改变,并不只是更智能的交互,而是人机关系的一次重写。

当用户把越来越多的任务交给系统完成,当机器逐渐理解个体差异并主动优化路径,一个新的临界点正在逼近:PC正在从工具,演化为一种能够替人行动的“数字分身”。

混合AI成为分水岭——端与云的重新分工

这样的智能体,靠什么跑起来?如果还用过去的计算方式,很明显,Agent是跑不通的。

在过去的大模型时代,行业默认的路径是“尽可能上云”。模型越大、能力越强,计算越集中,终端设备更多承担的是接入与展示的角色。这种模式在“问答式AI”阶段是成立的——请求发出,云端返回答案,一次交互即结束。

但当AI进入智能体阶段,这种模式开始出现系统性压力。

“Agent不是问一个问题就结束,它是一个持续运行的过程。”高宇在现场解释,“一次任务可能涉及多轮推理、多次工具调用,如果全部走云端,成本和延迟都会迅速放大。”

换句话说,问题不再是“能不能算”,而是“算得起、等不等得及”。

一方面,是Token消耗带来的成本失控;另一方面,是频繁网络往返造成的体验波动。而当任务涉及个人数据时,所有计算都必须经过云端,也意味着隐私边界被不断外移。

高宇提到,很多用户其实有顾虑,不是不愿意用AI,而是不确定数据会发生什么。

但另一条路径同样存在问题。如果把所有能力都压到本地,虽然可以缓解延迟与隐私问题,但模型能力、上下文长度以及复杂推理能力,又会成为新的瓶颈。

纯云不行,纯端也不行,高宇认为,“正确解决之道就是端-云混合。”

在英特尔的定义中,混合AI并不是简单的“端云各做一部分”,而是一种动态决策体系——系统会根据任务需求、数据属性与资源状态,实时决定计算应该发生在哪里。

计算的位置不再是预设的,而是流动的。

在具体实现上,高宇用一个更容易理解的比喻来描述这种结构:“可以把它看成主脑和辅脑。”

云端模型负责复杂推理与全局理解,相当于“主脑”;本地模型则负责高频响应、数据处理与即时执行,更像是“贴身反应系统”。两者之间通过任务调度不断协同,而不是简单的前后分工。

这种分工的意义,在于把不同计算资源的优势最大化,而不是相互替代。

从更宏观的角度看,混合AI改变的,并不仅是性能或成本,而是计算的组织方式。

过去,开发者需要预先决定系统部署在哪;而现在,这种决策被交给运行时系统,根据具体任务动态调整。计算资源不再是固定配置,而成为可以调度的“流动资产”。

这让智能体具备了一种新的能力:在不同算力层之间迁移、组合,并始终保持任务连续性。

高宇在分享中总结道,他们其实是在做一件事情,就是让AI在不同计算环境之间无缝工作。

也正是在这一点上,混合AI成为智能体PC成立的前提条件。

没有它,智能体要么受制于云端的成本与延迟,要么困于本地的能力上限;有了它,端与云才第一次形成真正意义上的协同关系。

从技术到生态——智能体PC的真正战场

分享会上,英特尔反复强调了一个关键词——生态完整性。

相比硬件能力本身,英特尔更关注的是:当智能体真正运行起来之后,是否有一整套体系去承接它。

在现场展示中,一个反复被提及的概念是Skill。

与传统软件不同,Skill更接近被标准化封装的能力单元,可以被智能体按需调用,而不是由用户主动打开。开发者不再必须构建完整应用,而是可以围绕具体能力进行拆分与提供,由系统在任务执行过程中进行组合与调度。

这种变化看似细微,本质却是在重写软件的存在方式——应用的边界被打散,取而代之的是围绕任务动态拼接的执行链路。

但从英特尔的表达来看,仅有能力拆解,还不足以支撑一个完整生态。

在分享中被反复强调的另一个关键词,是可控性。

当AI开始直接参与数据处理与任务执行,系统的能力边界被显著放大,随之而来的,是对安全与信任的更高要求。而用户对于数据隐私与使用边界存在现实顾虑,成为智能体落地过程中必须解决的问题。

因此,在能力体系之外,英特尔同步强调了安全机制的前置,包括本地数据处理、权限控制,以及基于语义理解的安全模型等路径,其核心目的,是在能力提升的同时,确保系统行为始终处于可控范围内。

这使得安全不再是附加选项,而成为平台的一部分。

与此同时,英特尔并没有将智能体PC限定在单一设备形态上。

从展示内容来看,其覆盖范围已经从传统笔记本延伸至Mini PC、AI Box等多种终端形态。这些设备的共同点,并不仅是算力提升,而在于都具备本地AI运行能力,并能够与云端形成协同。

在这种结构下,生态的核心问题逐渐清晰:是否能够形成持续运转的正向循环。

开发者提供能力模块,智能体在任务中调用并优化路径,用户在使用过程中产生反馈,再反过来推动能力迭代与分发效率提升。一旦这一循环建立,生态就不再依赖单点推动,而具备自我增长的可能。

英特尔当前的一系列布局——包括本地AI能力下沉、Skill体系构建以及安全机制强化——本质上都在为这一循环提供基础条件。

也正是在这一层面上,智能体PC的竞争开始转向谁能够更早建立起一套可持续运转的生态体系。

当技术路径逐渐收敛,真正的差异,往往来自这些更慢、更重、也更难复制的部分。

雷峰网

原文链接:https://www.leiphone.com/category/chips/qlFI2y6BTOx6TwAS.html