Meta AI负责人Yann LeCun谈AGI、开源和AI风险
摘要
Meta首席AI科学家Yann LeCun认为,大型语言模型不是通向人类水平智能的可行路径,理由是它们无法推理、规划或理解物理世界。他强烈倡导开源AI,并将存在性风险场景视为臆测,将安全定位为持续的工程挑战。
要点
- LLM从根本上达不到AGI:它们会产生幻觉、缺乏常识,无法在训练分布之外进行规划
- 一个四岁儿童通过感官体验吸收的数据大约是LLM整个训练语料库的50倍
- 开源AI是必要的,因为AI助手将中介所有人类知识的获取——专有控制是不可接受的
- 兰德公司报告发现LLM在生物武器开发方面不会提供超出公开信息的实质性帮助
- LeCun否定了智能与支配欲相关的前提,称“AI一夜之间接管“的场景“荒谬“
引用于
-
2026年2月16日
接下来会怎样?
如果我们把AI的增长曲线再往前推演几年,它将改变一切。一个理性的人应该如何做好准备?