AGI不是更会聊天的ChatGPT:为什么LLM永远无法等于AGI
AGI不是更会聊天的ChatGPT:为什么LLM永远无法等于AGI
很多人对AGI将信将疑,觉得全知全能的神才配叫AGI。
但从第一性原理看,一只会觅食的狐狸、一个会修电脑的人,就是实实在在的AGI。
区别仅在于:大脑皮层的抽象维度的量级。
这是整篇文章的原点公理。
01 划界:LLM是计算器,Agent是行动者
这是当前行业最大的认知错位。
你可能用过ChatGPT,觉得它很聪明。但你有没有想过一个问题——
为什么每次会话结束后,它就忘记了你们聊过什么?
因为LLM本质是一个无状态的纯函数:Output = f(Input)
给它相同的输入,它永远吐出相似的Token。它没有时间流逝的概念,没有我刚才做了什么 的记忆,更没有改变外部环境的能力。
Stateful vs Stateless AI Agents的研究指出:纯LLM无法理解饿和痛,因为它没有维持自身状态的机制。
而智能的底色是随时间演化的状态更新:
感知环境 -> 形成记忆 -> 制定计划 -> 执行动作 -> 观察反馈 -> 更新记忆
这个闭环,LLM根本做不到。
AGI的本质定义就是一个高度自主的Agent,LLM只是它的语言脑。
就像人的大脑分为:负责基础计算的神经元(=LLM)和负责循环、记忆、内分泌的系统(=Agent架构)。
把无状态的LLM当成有状态的AGI,就像把一块被切下来的海马体当成一个完整的人。
02 外骨骼陷阱:我们正在给无头骑士穿越来越重的盔甲
因为底层的LLM没有状态,我们被迫在它外面套一层又一层代码:
- RAG管记忆——外部向量数据库检索
- LangChain管规划——外部编排框架
- MCP管工具——外部工具调用
- CrewAI管多角色——外部多Agent通信
这些Harness越庞大,越证明底层的LLM是个残次品。
AutoHarness的研究表明:Agent往往被定义为LLM与Harness的组合。但这种外骨骼不是进化的终点。
03 内化:四场外挂变器官的进化之战
记忆内化:从外部塞资料到内建树状索引
现在的RAG:外部向量数据库检索,接到Prompt里。
MemGPT的研究提出了虚拟上下文管理(Virtual Context Management):让LLM能够使用超出有限上下文窗口的内存。
人脑不是把一生经历全塞进工作记忆,而是建立索引按需提取。
未来的Agent:内建的持久记忆区+树状/图谱索引结构。
历史对话不再是负担,而是可检索的燃料。Agent自己知道我需要什么,而不是你告诉它检索什么。
技能内化:从API菜单点单到长在身上的肌肉反射
现在的Tool Calling太蠢了:像一个人每次想喝水都要查字典找喝水API的文档。
真正的内化是:把Skills变成模型的子程序动作空间。
工具调用从显性推理降维成隐性直觉。
不再是请帮我调用谷歌,而是我决定去看看谷歌。像你不需要思考用手去抓水一样自然。
规划内化:从提示词里的ReAct到权重里的前额叶
靠System Prompt写请你一步一步想,这是对模型智商的侮辱。
Meta-Harness的研究指出:可以端到端优化模型的Harness代码。
未来的规划、反思、纠错,必须是训练出来的内生能力,而不是推理时的模板。
模型天然会在行动前评估后果、在受挫后调整策略。这是固化在权重里的能力。
协作内化:从多开几个聊天室到单体内部的认知分裂
现在的Multi-Agent本质上是在模拟精神分裂症:外部开多个聊天室互相发消息。
真正的多角色协作,未来会压缩成单个Agent内的多线程处理与自我辩论机制。
一个Agent可以同时启动多个子思维进行辩论、反思、规划,然后合并结论。
无需外部网络通信,靠内部注意力机制完成分工。
04 终局:什么会被留下,什么会被淘汰
当Agent长出内脏,所有的外骨骼都将沦为废铁。
当下一代基础模型把记忆、工具、规划内化为原生能力后:
- 90%的Agent编排框架将被淘汰
- Prompt工程技巧将被扫进历史垃圾堆
- Workflow流式节点将像早期的汇编语言一样过时
我们离AGI的距离,不取决于我们把外面的Harness搭得多复杂,而取决于我们多快能把这套Harness的运行逻辑,彻底烧进模型的权重里。
如果你觉得这个视角有意思,点个在看,让更多人看到AGI的真正起点。
数据来源:
- MemGPT: Towards LLMs as Operating Systems (arXiv 2310.08560)
- Stateful vs Stateless LLMs (Vasundhara)
- AutoHarness (arXiv 2603.03329)
- Meta-Harness
【人机协作说明】本文由AI工作流自动调研与生成初稿,经技术专家视角的深度逻辑重构。观点与案例选取均为原创逻辑,欢迎分享,严禁抄袭。