Back to Blog
2026-03-12AI观察

Jeff Dean 最新访谈:未来开发者人均 50 个智能体

从 Jeff Dean 最近的访谈里,能看到 AI 编程、统一模型、低延迟系统和个性化 agent 正在汇成一条清晰主线:未来开发者管理的,可能不是代码库,而是一整个智能体团队。

Jeff DeanAgentGoogleGeminiAI工程开发者

最近看完 Jeff Dean 的一场访谈,我最大的感受不是“Google 又讲了一次宏大愿景”,而是很多原本零散的趋势,第一次被串成了一条非常清晰的线。

这条线大概是这样的:

  • 未来开发者管理的,可能不是几个工具,而是几十个智能体
  • 软件工程的核心能力,会从“亲手写每一行代码”逐渐转向“定义问题、描述约束、管理上下文、校验结果”
  • 模型能力的提升,不只是来自更大的参数量,也来自更低的延迟、更强的系统设计和更有效的能量利用
  • 真正有价值的 AI,不会只是一个“大家都能用的通用模型”,而会越来越像一个了解你、记得你、能持续协作的个性化系统

如果只把这些话当成标题党,当然很容易一笑而过。但 Jeff Dean 不是一个靠制造情绪来吸引注意力的人。他讲这些话时,背后站着的是 Google 搜索、TPU、Gemini 和整整一代大规模系统工程的经验。

也正因为如此,这场访谈最值得看的地方,不在于某一句“震撼判断”,而在于它透露出一个信号:到了 2026 年,AI 工程的重心正在发生非常真实的迁移。

Jeff Dean 在 Purdue Engineering 的公开活动照片

Jeff Dean。图片来源:Wikimedia Commons,Purdue Engineering,CC BY 3.0。


一、最吸引眼球的判断:未来开发者将管理 50 个智能体

访谈里最容易被传播的一句话,是 Jeff Dean 认为未来一个开发者可能会管理 50 个智能体,就像今天带一群实习生一样。

这句话听起来很夸张,但如果拆开看,其实并不神秘。

过去我们理解“开发效率提升”,通常会想到更好的 IDE、更强的 Copilot、更快的自动补全。也就是说,AI 只是一个附着在编辑器里的能力增强层,帮助你更快地完成你本来就要做的事情。

但 Jeff Dean 描述的不是这种模式。他谈的是另一种工作形态:你不再只是在写代码,而是在协调、监督、审阅、分发任务、管理上下文。真正被放大的,不是“打字速度”,而是“组织能力”。

换句话说,未来的开发者更像一个小型团队的负责人,只不过团队成员不再全是人,而是一批能力不同、擅长领域不同、需要不同程度监督的智能体。

这也意味着一个重要变化:软件开发会越来越像管理系统,而不只是编写系统。

你要决定:

  • 哪些任务适合完全放手
  • 哪些任务需要频繁打断和校正
  • 哪些任务应该拆成多个 agent 并行推进
  • 哪些结果必须用测试、评审或第二个模型进行交叉验证

如果我们把这个场景想象得再具体一点,其实就很像今天一个经验丰富的工程负责人带一批新人:

  • 有人适合去收集信息
  • 有人适合起草方案
  • 有人适合补测试
  • 有人适合做性能优化
  • 有人适合先快速试错,再把结果交回来让你决策

所谓“50 个智能体”,本质上并不是说每个人面前会同时开着 50 个聊天窗口,而是说未来的工程系统会天然支持多 agent 并行,而人的角色会从执行者逐渐转向编排者。


二、真正的稀缺能力,正在从“会写代码”变成“会写需求”

这场访谈里另一个我觉得特别重要的点,是 Jeff Dean 对 specification 的强调。

他说得很直接:如果你没有把 corner case、性能要求、输出边界写清楚,模型往往就会忽略它们。模型不是不会做,而是它只能在你给定的上下文边界里工作。你表达得越模糊,它产出的东西就越像“看起来差不多”。

这其实是在重新定义“好开发者”的能力结构。

过去,我们很容易把优秀工程师理解为:

  • 代码写得快
  • API 记得熟
  • 框架细节掌握全
  • 能自己把复杂功能从头到尾敲出来

但在 agent 时代,真正拉开差距的,可能越来越是这几件事:

  • 你能不能把目标写清楚
  • 你能不能提前想到边界条件
  • 你能不能定义一个可验证的完成标准
  • 你能不能把团队经验沉淀成稳定的工程规则,让模型也能读懂并执行

也就是说,“清晰地描述问题”会成为一种越来越硬核的工程能力。

这点很多人现在还低估了。因为在纯人工时代,需求写得模糊一点,团队还可以靠会、靠经验、靠口头同步补回来;但当执行层越来越多地由模型承担时,模糊需求的代价会被放大。你原来能靠默契修正的地方,现在很可能会直接变成 agent 的偏航点。

所以我觉得 Jeff Dean 这里真正想提醒大家的,不是“以后人人都不用写代码了”,而是:以后谁更会定义问题,谁就更可能成为高杠杆的人。


三、Gemini 为什么会出现:不是灵光一现,而是资源整合的结果

访谈里还有一段很有意思,是 Jeff Dean 讲 Gemini 起源时的态度。

他的意思大概可以概括成一句话:当时 Google 内部同时有多支团队在做相关方向,如果继续把资源、人和算力拆得太散,是一件很愚蠢的事。

这句话听起来很朴素,但它其实揭示了大公司做 AI 的一个核心现实:决定胜负的,很多时候不只是模型思路本身,而是组织能不能在关键节点完成整合。

Gemini 之所以重要,并不只是因为它是一个“新模型”,而是因为它代表了一种明确的路线选择:

  • 不再把语言、视觉、多模态能力割裂看待
  • 不再让多个顶级团队长期并行做重复投入
  • 从一开始就按“统一模型”的方向去规划资源和架构

这也和他后来谈到的很多观点是统一的。比如他认为通用模型能力会越来越强,很多原来需要专门系统的任务,会逐步被统一模型吸收。过去我们习惯给每个任务造单独的系统,而现在的趋势是把越来越多任务丢给一个强基础模型,再用工具、检索和模块化补足边界。

这背后其实对应着一个很大的时代变化:AI 系统正在从“功能拼装”走向“能力整合”。

而这不只是 Google 的问题。对任何企业来说,这都是一个很现实的提醒。很多公司今天做 AI 的问题,不是完全没有投入,而是投入太分散:

  • 一个团队做客服 agent
  • 一个团队做代码助手
  • 一个团队做知识库问答
  • 一个团队做内部检索
  • 一个团队做数据分析 Copilot

看起来每个方向都对,但如果底层能力、上下文系统、评测方法和工具层完全割裂,最后很容易出现“每个都做了,但没有一个真正形成平台能力”的局面。

Jeff Dean 这段关于 Gemini 的回顾,我觉得对企业最大的启发就是:资源整合往往比多点开花更重要。

Google Gemini 标志

Gemini 这个名字本身就带着“统一”和“合流”的意味。图片来源:Wikimedia Commons。


四、为什么他一直强调延迟、batching 和能量效率

很多人看 AI 访谈,最容易忽略的一类内容,就是底层系统细节。比如 SRAM 搬运数据要多少皮焦耳,一次乘法操作又是多少能耗,batch size 为 1 和为 256 时的差异有多大。

这些数字看上去离“应用层”很远,但 Jeff Dean 反复强调它们,恰恰说明了一件事:AI 的未来不只取决于模型会不会思考,也取决于系统能不能以足够低的成本和足够低的延迟把这种思考交付出来。

这一点很关键。

因为很多今天看起来“暂时还不实用”的 agent 形态,本质上并不是逻辑上做不到,而是成本和延迟还太高。一个系统如果每次都要长时间思考、消耗大量算力、等待很久才给出结果,就很难真正变成高频生产工具。

但如果延迟下降 20 倍、50 倍,很多今天还显得笨重的模式就会变得完全不一样。

比如:

  • 多轮自我反思会更便宜
  • 多 agent 并行协作会更可行
  • 模型生成前先做更复杂的检索和评估,会更合理
  • 用户会更愿意把实时工作流交给 agent

也就是说,低延迟不是“锦上添花”的优化,而是很多 agent 体验能不能真正成立的基础条件。

这一点对开发者也很有启发。过去很多人做 AI 产品,只盯着 prompt 和模型效果;但 Jeff Dean 这类系统工程背景非常强的人,会天然从另一面看问题:你能不能把响应时间压下来,能不能让单位成本下降,能不能让更多复杂能力在同一交互中同时发生。

未来真正有壁垒的 AI 产品,往往不会只赢在模型选型上,还会赢在系统层的吞吐、延迟和能量效率上。

Google Tensor Processing Unit 电路板照片

TPU 并不是这场访谈的背景板,而是很多判断成立的基础设施前提。图片来源:Wikimedia Commons,CC BY-SA 4.0。


五、通用模型、个性化模型与“你的 AI”

访谈里我觉得另一个非常值得反复咀嚼的判断,是 Jeff Dean 对个性化模型的看法。

他的意思不是“每个人都要训练一个基础大模型”,而是:一个真正了解你、能访问你历史信息、知道你上下文状态的模型,会比一个完全通用、对你一无所知的模型有更高的价值。

这其实和我们最近看到的 agent 发展方向高度一致。

大家越来越意识到,一个真正好用的 AI,不只是“智商高”,更重要的是:

  • 它记得你过去做过什么
  • 它知道你现在在推进什么
  • 它理解你的偏好、标准和风格
  • 它能在需要时调取你的邮件、文档、日历、代码、笔记和聊天记录

换句话说,AI 的长期价值正在从“更通用”转向“更贴近具体的人和组织”。

这也是为什么最近很多人都在谈“第二大脑”“personal context”“长期记忆”“workspace-native agent”。因为未来真正最有用的 agent,未必是排行榜上最强的那个,而更可能是最懂你的那个。

Jeff Dean 这里说的个性化模型,我觉得某种程度上就是在为这一趋势做背书。


六、搜索、检索和 agent,其实是一条连续的线

这场访谈里还有一个容易被忽略、但我觉得非常重要的点,是 Jeff Dean 回顾 Google 搜索系统演进时的那种视角。

他提到,早在 2001 年,Google 就已经在思考如何把更大的索引装进内存、如何给查询扩展更多相关词、如何让系统不再只做“字面匹配”,而更多地做“语义层面的相关性判断”。后来 BERT、再后来更大规模的语言模型,某种意义上都只是把这条路继续往前推。

这个历史回看很重要,因为它提醒我们:今天大家热议的 agent,并不是凭空冒出来的新品类,而是在搜索、检索、排序、摘要、工具调用这些能力基础上逐渐长出来的。

如果把这条线拉直,会发现逻辑非常顺:

  • 搜索解决的是“找到相关内容”
  • 检索增强生成解决的是“把找到的内容组织进推理过程”
  • agent 进一步解决的是“在找到、理解、判断之后,继续采取行动”

所以很多人会觉得现在的 AI 产品非常像“一个会说话的搜索引擎”,这种感觉其实并没有错。只是到了 2026 年,这个“搜索引擎”开始拥有长期记忆、工具调用、任务状态和执行闭环,于是它从一个检索界面逐步变成了一个工作系统。

这也是为什么我越来越觉得,未来最强的 agent 产品,不一定是“最像人”的产品,而更可能是最能把搜索、检索、记忆、推理和执行连接起来的产品


七、垂直模型不会消失,但会越来越像模块

Jeff Dean 在访谈里还谈到一个很值得企业关注的判断:垂直模型不是没有意义,只是它们不应该一开始就和基础模型割裂。

这其实很符合今天很多团队真实会走的路线。

一个强基础模型负责通用语言理解、代码能力、多语言处理和跨领域推理;而在某些高价值场景里,比如机器人、医疗、金融、企业内部知识流程,系统再叠加更强的领域模块、工具和数据。

这意味着未来很多公司做 AI,并不一定要在“通用模型”和“行业模型”之间二选一,更可能是这样的架构:

  • 底层是一个统一、稳定、持续升级的基础模型
  • 上层是多个面向业务的模块、知识包、工作流和工具集
  • 中间再通过检索、权限、上下文编排把两者连接起来

这样做的好处很现实:

  • 通用能力不会被过度牺牲
  • 行业能力可以按需增强
  • 产品形态更容易模块化升级
  • 技术组织也更容易围绕统一底座形成复用

从这个角度看,未来企业不是“有没有自己的大模型”这么简单,而更像是在回答另一个问题:你有没有能力把统一模型、垂直知识、工具和工作流真正拼成一个可持续演化的系统。


八、从开发者和企业角度看,这意味着什么

1. 对开发者来说,重点不是和 AI 抢写代码

如果未来一个人真的能管理几十个智能体,那开发者最需要做的,不会是焦虑“我是不是会被取代”,而是尽快升级自己的工作方式。

真正有价值的问题会变成:

  • 你会不会把一个复杂任务拆成多个可执行子任务
  • 你会不会设计 agent 之间的协作关系
  • 你会不会定义验收标准
  • 你会不会建立自己的提示模板、工程规范和评审流程
  • 你会不会维护属于自己的上下文系统

也就是说,开发者的护城河会越来越从“执行速度”转向“组织智能的能力”。

2. 对企业来说,AI 项目会越来越像系统工程

很多公司今天做 AI,还停留在一个很表层的阶段:接一个模型 API,加一个聊天入口,再做一点业务封装。

但如果 Jeff Dean 的判断成立,未来真正拉开差距的企业,拼的会是另一套东西:

  • 是否有统一的上下文和数据层
  • 是否有稳定的评测和回归系统
  • 是否能让多个 agent 在同一业务流程里安全协作
  • 是否能把人类团队经验沉淀成模型可消费的规范
  • 是否能把延迟、成本、可靠性和权限控制做到足够工程化

这意味着企业做 AI,不再只是做一个“功能”,而是在建设一套新的生产系统。

3. 更深一层的变化,是组织结构本身会被 AI 反过来塑形

当一个工程师可以同时协调多个智能体时,团队规模、分工方式、评审机制和协作接口都可能变化。

未来团队里最重要的几类人,可能会越来越是:

  • 能定义目标的人
  • 能搭建流程的人
  • 能做最终判断的人
  • 能把组织经验转成系统规则的人

从这个角度看,AI 不是简单减少人力,而是在迫使组织重新思考:什么工作应该由人做,什么工作应该交给 agent,什么工作则应该由人和 agent 共同完成。


九、结语:真正值得重视的,不是“50 个”,而是角色变化

“未来开发者人均 50 个智能体”这句话会火,完全可以理解。它足够具体,也足够有画面感。

但如果只记住这个数字,反而会错过这场访谈最重要的部分。

Jeff Dean 真正讲的,其实是一整套新的 AI 工程观:

  • 模型会越来越统一
  • 系统会越来越低延迟
  • 个性化上下文会越来越重要
  • 开发者会越来越像 agent 团队的管理者
  • 企业竞争力会越来越取决于能否把模型、工具、记忆、规范和组织结构整合成一个整体

所以,这场访谈真正值得记住的,也许不是“以后每个人手下到底是不是 50 个智能体”,而是另一句话:

未来最强的开发者,可能不是写代码最快的人,而是最会组织智能、定义问题和管理系统的人。

这才是 Jeff Dean 这场访谈里,我觉得最值得认真对待的部分。


参考资料

Published on 2026-03-12