解密 AI 未来:从 LLM 到感知智能
在人工智能突飞猛进的当下,大语言模型(LLM)的惊艳表现让很多人对 AI 的未来充满期待。然而,Meta 首席 AI 科学家 Yann LeCun 却提出了一个发人深省的观点:现有的 AI 技术路线存在诸多局限,要实现真正的智能系统,我们需要重新思考发展方向。
在最新的演讲中,LeCun 指出了当前 AI 发展中的关键问题:我们已经有了能通过律师资格考试、解决数学难题、证明定理的 AI 系统,却无法制造出具备猫咪智能水平的家用机器人。莫尔悖论描述了这个令人困惑的现象:对人类和动物来说习以为常的能力(如理解物理世界、规划行动),对 AI 来说却极其困难;而被视为人类特有的能力(如语言运用、下棋),AI 反而可以相对轻松地掌握。
LeCun 指出:「目前主流的大语言模型训练方式存在根本性问题。仅靠文本训练,永远无法达到人类水平的智能。」他用一组数据做了生动对比:最新的大模型训练数据量约为 30 万亿个标记(token),相当于 100 万亿字节。而一个 4 岁的孩子,仅通过视觉感知系统,在清醒时间内接收到的信息量就已达到了相同水平。这意味着,要实现真正的智能系统,我们需要重新思考学习的本质。
作为突破口,LeCun 提出了一个全新的技术路线:联合嵌入预测架构(Joint Embedding Predictive Architecture,JEPA)。这种架构不同于传统的生成式模型,它更关注如何在抽象表征空间中进行预测。「我们不需要预测每一个像素,而是要学习能够捕捉世界本质特征的表征。」他解释道。
世界模型(World Model)的构建是这种新型架构的核心。通过观察当前状态并预测行动后的结果,系统能够逐步建立对物理世界的理解。更重要的是,这种架构允许分层规划:从高层的抽象目标到具体的执行动作,就像人类规划行程时自然地将任务分解为多个层次。
展望未来,LeCun 认为:「AI 助手将无处不在,它们需要具备人类级别的智能,因为这是我们最熟悉的交互方式。」他特别强调,这样的系统必须是开源的、共享的,而不能被少数科技巨头垄断。「没有任何单一实体能够独自训练出这样的基础模型,这需要全球协作。」
在技术路线上,LeCun 给出了几点重要建议:
- 放弃传统生成式模型,转向表征学习架构
- 采用基于能量的模型,而非概率模型
- 使用正则化方法取代对比学习方法
- 将强化学习作为补充手段,而非主要方法
这位 AI 先驱强调:「如果你对人类水平的 AI 感兴趣,就不要局限于大语言模型。真正的挑战在于如何构建具有常识推理、物理认知和分层规划能力的智能系统。」
当前,LeCun 的观点为我们指明了一个值得深思的方向:通向真正智能的道路,不在于简单地扩大模型规模,而在于从根本上重新思考智能的本质。这场技术变革,需要全球开放协作,需要突破现有范式的限制,更需要我们对人类智能本质的深入理解。