花了两天时间,把AI圈大佬们的2025年终总结全翻了一遍。
写了篇万字长文,
发了两篇博客,
上了CNN,
和
在X上吵了一架,Ilya Sutskever离开OpenAI后第一次深度受访。
看完之后发现一件很有意思的事:
所有人都在回答同一个问题——AI现在最大的问题是什么?
但他们给出的答案,完全不一样。
整理出来大概5类答案,分享给大家。
——
第一类答案:规模化到头了
Ilya Sutskever说了一句很重的话:"我们正在从规模化时代转向研究时代。"
什么意思?从2020到2025,AI进步的逻辑很简单——堆数据、堆算力、堆参数。GPT-2到GPT-3到GPT-4,基本就是这个套路。
但Ilya说,现在规模已经大到一定程度了。"信念还是'再扩大100倍一切都会不同'吗?我不这么认为。"
他的判断是:AI的瓶颈不再是算力,而是想法。
这话从Ilya嘴里说出来分量很重。他是GPT系列的核心贡献者。
但
的看法截然相反。
他在博客里写:"我们现在确信我们知道如何构建传统意义上的AGI。"
注意用词——"确信"、"知道如何构建"。
同一个公司出来的两个人,判断完全不同。
——
第二类答案:LLM是条死胡同
12月在X上直接开炮:"所谓的通用智能根本就是扯淡(complete BS)。"
他的逻辑是:人类智能本身就是高度专业化的,我们以为自己很"通用",其实只是一种错觉。
更关键的是,他认为LLM这条路走不通。"LLM只是预测下一个token,它们缺乏对物理世界的理解。"
他的替代方案叫World Models。12月他宣布离开Meta,创办AMI Labs,就是做这个方向。
直接反驳:"人类大脑是已知最复杂的系统之一,按设计来说是高度通用的学习机器。"
两人在12月24日有一场公开辩论。
还站队Hassabis,发帖说"Demis是对的"。
站LeCun这边:"LLMs are not AGI. Anybody who thinks they are is just not really following the technical detail."
@GaryMarcus 站 LeCun 这边:“LLM 不是 AGI。任何认为它们是 AGI 的人都只是没有真正了解技术细节。”
——
第三类答案:泡沫要破了
这个问题有意思。按理说,AI公司的CEO应该最看好AI。但如果你仔细看他们的表态,会发现很多人在释放"谨慎"信号。
8月说:"投资者作为一个整体是否对AI过度兴奋了?我的看法是,是的。"
11月说:"私人市场显然存在泡沫……种子轮估值几十亿美元的公司什么都没有。"
12月在DealBook峰会说:"部分公司在YOLO(孤注一掷),过度投资数据中心。经济价值实现的时机不确定,可能出现时机错误。"
注意,这是Anthropic的CEO在说这话。他自己的公司估值1830亿美元。
但一个数据很扎眼:MIT 8月的报告显示,尽管企业在GenAI上投入了300-400亿美元,95%的组织获得的回报是零。
——
第四类答案:就业冲击比想象的大
12月底接受CNN采访时说:"我可能比以前更担忧了。AI进步的速度比我预想的更快。"
他给出了一个具体预测:"AI每7个月左右就能将完成任务的时间减半。"
更让人不安的是他对AI风险的评估:AI夺取世界控制权的概率是10%-20%。
的预测更激进:"未来1-5年内,可能消灭半数入门级白领岗位。"
但
泼了冷水:"I can tell you, no one knows anything."
但
@emollick 泼了冷水:“我可以告诉你,没有人知道任何事情。”
他的观点是:AI agents还没到那一步。"你只是把AI换成人的想法对我来说很天真。"
——
第五类答案:我们还不知道最大的问题是什么
这可能是最诚实的答案。
说:"包括顶级AI实验室也不知道AI真正有用的场景。他们告诉我,用我的Twitter来了解用例。"
在12月的博客里写了一个很有洞察的观察:"模型不断变得更impressive的速度符合短时间线预测,但变得更useful的速度符合长时间线预测。"
什么意思?AI在benchmark上表现越来越好,但真正落地到实际工作中,进展没那么快。
这可能才是最核心的问题:能力和实用之间的gap,比我们想象的大。
——
那个没有答案的问题:AGI什么时候来?
:比世界上大多数人想的更快
:2030年前可能
:5-20年(从30-50年下调)
:10年以上,而且当前方法到不了
Ilya Sutskever:当前方法会逐渐停滞
:LLM不是AGI,需要全新方法
差距有多大?从"已经知道怎么做"到"完全是另一回事"。
——
如果你问我AI现在最大的问题是什么?
说实话,我不知道。
但我知道一件事:最顶尖的那群人,也不知道。
说得最直接:"No one knows anything." 包括他自己,包括OpenAI,包括DeepMind。
这其实是个好消息。
如果连诺贝尔奖得主都在困惑,连OpenAI的首席科学家都说"我们还不知道怎么构建真正有效的系统",那我们普通人就不用焦虑自己"跟不上"了。
2025年的AI圈,最有价值的不是那些确定的答案。
而是这些大佬们愿意公开承认:我也在想,我也不确定。
这比任何宏大预言都真实。
——
你觉得AI最大的问题是什么?