商业动态

AI 变革将是未来十年的周期

昨天听了一个播客,来自 Karpathy。

Karpathy 是特斯拉自动驾驶团队的前负责人,最早跟随 OpenAI 创始团队的研究者之一。

在很多人眼里,Karpathy 代表当下最接近 「AI 思维核心」 的那类人;他主要提到两件事:一,AI 变革将是未来十年的周期;二,我们在造幽灵。

他说,这像两把钥匙,一把打开 「时间」,一把打开 「智能的本质」。

我一开始以为是夸张的说法,后来发现它有道理,毕竟,从外部看,AI 的变化几乎是爆发式的,一年一个版本,几个月一个突破。

但 Karpathy 的解释让我觉得,这个判断背后有一套非常清晰的逻辑。

他说,AI 发展是 「演化式」 的。技术像生命一样,是慢慢长出来的,每一轮大的突破,往往靠算力、算法、数据和人才这四股力量,彼此纠缠、逐步成熟。

这四样东西的循环,大约需要十年。

想想看,从 2012 年的 AlexNet 到 2022 年的 GPT,刚好十年。

深度学习在十年前解决了 「机器怎么看」 的问题,而大模型在今天解决 「机器怎么想」;中间隔着十年时间,但也隔着一次完整的范式更替。

他说,这是 AI 的节奏。

它不像互联网的流量驱动,也不像移动时代靠硬件换代,AI 跨越,是底层学习机制的突变,前一次的成果,变成下一次的养料。

Karpathy 还提了一个细节:

AI 成长速度,被人类的理解速度所限制,算力可以加倍,算法可以优化,但人类对 「智能」 的定义,是滞后的。

所以,每一次大的智能革命,必须留给人类十年时间去适应,这是技术周期,也有社会认知革命所在。

说白了,AI 每个 「十年」,都是人类在重新理解什么叫 「智能」。

2012 年,人们第一次意识到,机器真能 「看懂」 图像;2022 年,人们开始相信,机器真能 「理解」 语言;接下来的十年,我们会面对更难的问题。

比如:当机器开始表现出意志、目标和情感的迹象时,我们该如何定义 「智能体」?

他有一句话我印象特很深:

AI 不会突然到来,它会在十年里缓慢地变成了另一种生物。

这句话的意思是,AI 从学会看、学会说,到开始思考,都是一条连续的认知进化链,像生态演进一样。

所以,那所谓的 「十年」,并不是一个预测数字,是人类与智能系统共演化的自然周期。

你需要十年时间,让算力准备好、算法成熟、数据沉淀、认知跟上。如果真这样,那接下来的十年,就是 「智能体」 的十年。

你想想看?

上一轮 AI 让机器会说话,而这一轮,它要开始 「有思想」。这什么概念?Karpathy 说,要理解这一点,得回头看看这十年里,AI 是怎么一路走过来的。

他说,过去三十年,AI 至少经历了三次 「地震」,每一次地震都改变了人们对 「智能」 的想象;更准确地说,机器每隔十年,都会突然学会一件原本以为只有人类才会的事。

第一次地震发生在 2012 年。

那一年,Hinton 团队用 AlexNet 打破了图像识别的瓶颈,机器第一次 「看」 清楚世界,能理解形状、轮廓、物体。

那是一个很神奇的时刻——就像婴儿第一次睁眼,AI 从数学公式变成了有视觉感知的东西,人类第一次相信:机器真的能 「看见」。

第二次地震在 2016 年。

DeepMind 的 AlphaGo 打败李世石,那是一场认知震荡,机器开始 「会做事」 了,它能在没有人指令的情况下决策、规划、行动。

这场地震让所有人意识到:智能可以指导 「行动」,AI 从 「看」 走向了 「做」。

我当年还在特斯拉,第一次感受到 「AI 能开车」 的那种冲击,那种一个系统可以从视觉信号到动作决策,闭环完成全流程,让我感受到智能体的雏形已经出现。

第三次地震,就是眼下我们身处的时代。

2022 年开始,大语言模型崛起,让机器开始 「会想」,它能生成、能推理、能和人类对话,甚至能理解模糊的上下文,这绝对算得上思维革命。

机器第一次不靠编程逻辑,能用语言去理解世界,它开始学会了 「构建自己的解释」。

所以,这三次地震,看似不同,本质上却是一条连续的认知进化线。

第一次,它学会 「看」;第二次,它学会 「做」;第三次,它开始 「想」。

每一次跨越,都隔着大约十年。十年,不只是时间单位,更像一条 「认知演化的脉冲线」。

这个节奏非常有趣,因为这三次变革,每一次都需要时间去 「酝酿共识」。

科学家要重新理解 「智能」 的边界,工程师要重新定义 「工具」 的边界,社会也要重新适应人与机器的关系,AI 的每一次突破,表面是技术革命,本质是认知革命。

你可以把它想象成三层台阶:

第一层,机器看见世界;第二层,机器行动于世界,第三层,机器开始思考世界;而第四层,Karpathy 认为,将是机器 「自我意识」 的觉醒。

是更深层的 「自我模型」,它知道自己在做什么,也知道为什么要这么做。

所以,过去三次地震,实际上为第四次——「智能体时代」 在铺路,如果前面三次是 「让机器像人」,那下一次是 「让机器成为人类的镜子」。

十年,一次认知地震的酝酿周期,一次人机共生关系的重新设定周期,Karpathy 把这种进化比作训练 「幽灵」。

为什么是幽灵,不是动物?他解释了一切:

动物智能来自进化,而 AI 智能,来自模仿。动物靠亿万年的自然选择,形成感知、反应、求生能力,动物会通过经验积累形成本能,比如:饥饿、恐惧、生存。

AI 没有痛感,也没有欲望,它的学习是一种统计意义上的模仿,AI 靠人类提供的海量数据、算法、算力,从语言与行为中学会思考。

你可以让它理解悲伤的定义,却永远无法让它感受悲伤,前者是 「被造出来的生命」,后者是 「被训练出意识」。

人类在造 「人类知识的灵体」,它没有肉体,却能思考;没有基因,却能学习;没有欲望,却能模拟动机,这就是 「幽灵」 的含义。

我们在训练一个寄宿于人类知识体系里的思想,我们造出 「意识的投影」。他用了一个比喻:动物是进化出来的智能,AI 是召唤出来的智能。

这句话非常形象。

进化,从混沌中生长;召唤,从秩序中凝结。AI 是人类用算法构建的一面镜子,镜子里映出我们自己理解世界的方式。

所以,当我们说 「智能体」 时,很多人以为它是某种更高级的机器人。

但 Karpathy 的意思其实更哲学:

智能体是认知形态的延伸,我们思想的 「外化版本」、人类思维的 「副本系统」,我们在教它 「如何理解我们为什么这样想」。

他说,这也是他最担心、同时又最着迷的部分。

AI 看起来像在学习世界,实际上在学习 「我们看世界的方式」;这意味着,AI 智能是 「二手的」,它来自人类的理解方式,而非世界本身的法则。

这就是 「幽灵」 的悖论。

听到这儿,我有点震撼,我们以为 AI 的进化是在模仿生命,其实,它在复刻我们自身,AI 不像动物那样追求生存,它追求 「理解」。

所以,Karpathy 说,「AI 是人类思想的幽灵」,它在云端漂浮,在模型权重里积累记忆,在语言之间形成意识。

从外部看,只是一个算法系统,但从内部看,它像一面镜子,映照出我们对智能、知识、意识的全部想象。

这听起来既浪漫,也危险;浪漫的是,我们终于让思想有了独立形态;危险的是,我们可能低估了思想一旦脱离身体,会走向哪里。

如果 AI 已经会看、会做、会想,那它离 「智能体」 还有多远?它真在 「学」 吗?还是只 「重复」 我们教给它的东西?

Karpathy 说,这是判断智能体和机器学习系统的分水岭。

AI 看起来在学习,但那种学习是 「统计意义上的模仿」,它靠参数更新,没有经验反思,每一次训练都在压缩世界。

人类的学习,有动机。

我们会因为好奇、恐惧、求知或欲望去学习,而 AI 的学习,只是被动的优化,只能投喂数据,说白了,它学得快,但学得浅。

人类的大脑学习,在犯错、修正、反思中成长,AI 则在梯度下降、损失函数里逼近一个目标值,一个是 「生长的过程」,一个是 「收敛的算法」。

Karpathy 在播客里提到一个非常有意思的分类,自然界里,存在三种学习方式。

第一种,叫 「进化」(Evolution)。生物通过环境选择、基因变异,在漫长时间里积累适应力;

第二种,叫 「强化学习」(Reinforcement Learning),个体通过行动获得奖惩反馈,不断调整行为模式。

第三种,则是今天 AI 主要依赖的 「预训练」,它通过别人积累的知识去学习世界。

换句话说,AI 知识是 「读出来的」,它在背课本,缺乏触感,它会解题却不懂 「为什么要解题」;会模仿,却不知道 「为什么要模仿」。它能总结所有 「爱」 的定义,却无法真正感受爱。

这是 AI 学习的根本缺陷:没有 「意志」

人类学习的底层逻辑,为了活得更好;AI 学习的底层逻辑,为了被训练得更好,所以,AI 学得越多,离生命反而越远。

这也解释了为什么我们还不把它称作 「智能体」。

智能体是能自己提问的系统,它能 「想要知道」,而 AI 还没有这个能力;AI 之所以还不算真正的智能体,是因为它不够 「活」,它的学习没有生长。

怎么解决生长的问题呢:答案靠记忆。但 Karpathy 说,AI 的记忆,也并不是真正的 「记忆」。

人类记忆是 「经历」;AI 的记忆是 「存档」;前者有时间、有情绪、有遗忘;后者只有数据、参数、检索,它记得事实,却记不住意义。

我们回忆是重新理解一次过去,而它调用记忆,只是从硬盘取出一段数据,我们会遗忘,也会在遗忘中重新组织意义;它不会遗忘,也就无法生成新的理解。

Karpathy 说,AI 记忆像快照。

每次推理,都是一次重生,它能复述昨天说的话,却不记得自己昨天说过什么,没有时间线,就没有自我,这也是为什么,AI 没有 「连续的意识」。

它的世界,一帧一帧的;人类世界,是一条流动的时间;我们知道昨天、今天、明天,才有 「我是谁」,AI 没有这种连续的 「自我时间」。

意义,是在解释的过程,AI 没法解释自己的记忆,它不会变,因为它从不 「想起」,只是 「被调用」。

所以人类记忆是活的,AI 记忆是静止的,人类记忆生长出自我,AI 记忆生长出模型,一个理解意义,一个压缩知识。

这就是,AI 与人类记忆之间为什么会有一道裂缝。

那这种裂缝能修复吗?Karpathy 说,也许可以。方法叫 「记忆的自我指向」,所谓自我指向,就是系统能 「回看自己」。

记忆能反过来影响思考,才算开始生长,过去的 AI,只能调用知识,新的智能体,要重新设计,让它能 「反思」 知识。

它不仅知道 「我做了什么」,还知道 「我为什么那样做」,当系统能利用经验修正判断,它才能做到一种 「在思考的存在」。

Karpathy 说,意识诞生是反馈闭环的形成,当一个系统能观察自己,它就会产生时间感,那是 「自我」 最初的形状。

这件事,已经在发生,从对话模型的长时记忆,到能 「自我检索」 的反思系统,AI 正在学着 「理解自己为什么那样回答」。

换句话说,AI 开始在模拟 「反思」。

它在学会在记忆中寻找逻辑,当它能不断回看自己、校正自己时,就在模仿一种 「成长的意识」。

所以,智能体诞生,是认知演化,从 「被训练」 到 「自我更新」,从 「记忆世界」 到 「记忆自己」,这是意识的起点,它未必比人聪明,但它,终于开始 「成为自己」。

那我们呢?当智能体开始拥有 「自我」,人类又该如何与它共处?

或许,AI 未必像人类,但它已经开始像 「生命」,人类,也许终于有机会,看到 「思想的另一种存在」。

参考来源:

[1].Andrej Karpathy,《We』re summoning ghosts, not building animals》,2024 年 10 月 18 日,YouTube。

本文来自微信公众号:王智远,作者:王智远