2026 年 4 月 1 日,美國東岸時間下午兩點左右,Brown 大學一間擠滿學生的演講廳。
目錄
- 先講結論:這是 2026 年迄今最重要的一週
- 第一槍:LeCun 在 Brown 大學說「AI sucks」
- 第二槍:Hassabis 公開反駁,連 Musk 都下場站隊
- 第三槍:Jim Fan 宣布「2026 是世界模型之年」,順便開源 DreamDojo
- 第四槍:Karpathy 說「我已經不怎麼用 LLM 寫代碼了」
- 四個人其實在講同一件事
- 給散戶的可執行結論:你該開始注意這兩個詞
- 最後一句
燈光打下來。Yann LeCun 走到講台前。沒有客套,沒有起手式。
他開口的第一句話是——「AI sucks.」
台下安靜了一秒。然後他繼續說:「我們現在有的,是一套能操縱語言的系統。它們用語言騙你以為它們很聰明。但你叫它們去開車、去收拾桌子、去面對真實的物理世界,它們立刻現原形。」
這不是一個外行人在酸 LLM。這個講話的人,是圖靈獎得主、Meta 首席 AI 科學家、卷積神經網路的發明人之一。
更有意思的是,接下來七天,還有三個跟他同等級的人,用各自的方式,對「LLM 路線」開了槍。
先講結論:這是 2026 年迄今最重要的一週
過去三年,整個矽谷的 AI 只剩一條賽道:把大語言模型做得更大、更會用工具、更會寫代碼。Altman、Zuck、Pichai、Dario 四個 CEO 站在同一邊。媒體跟著喊 AGI,散戶跟著買 NVDA。看起來,這場戰爭已經分出勝負了。
結果 2026 年 4 月第一週發生了一件很安靜、但很大的事:
四個親手把 LLM 做出來的人,在同一週、用四種不同的方式,同時對「純 LLM 路線」投了反對票。
他們之間沒有開會串通。彼此立場甚至還在互懟。但四聲槍響在同一週響起,這件事本身,就是一個訊號。
底下我把這四個人一個一個拆給你看。看完你自己判斷:這是巧合,還是 LLM 下半場真的已經開始了。
第一槍:LeCun 在 Brown 大學說「AI sucks」
LeCun 這個人,三年來就一直在講同一句話:大語言模型不是通往智能的路。只是過去沒人聽,因為 ChatGPT 太能打了。
這次在 Brown 演講的狠話,我直接幫你翻譯成人話:
- LLM 懂語言,但不懂物理世界。它知道「杯子從桌上掉下來會摔破」這句話怎麼寫,但不知道「我現在該怎麼接住它」。
- 你家 4 歲小孩的常識,比 GPT-5 還多。因為小孩是用身體學這個世界,不是讀維基百科。
- 只靠餵更多文字、加更多參數,是追不上這種常識的。這條路上限已經在那了。
他的主張是「世界模型(World Model)」——AI 要先學會「預測物理世界下一秒會發生什麼」,才能學會推理。這跟 OpenAI、Anthropic 現在的做法完全是兩條路。
重點不是他講了什麼——他一直都在講這個。重點是,這次他選擇在 Brown 演講用「AI sucks」這種極端措辭,代表他覺得警告的時間不多了。
第二槍:Hassabis 公開反駁,連 Musk 都下場站隊
你以為 LeCun 只是孤狼?同一週,DeepMind CEO Demis Hassabis(也是圖靈獎得主)在 X 上公開跟他隔空對轟。
Hassabis 的說法大致是:LeCun 把「general intelligence」和「universal intelligence」搞混了。能在「人能處理的絕大多數任務」上達到人類水準,就已經是 general intelligence。你不需要等 AI 學會開車才承認它有智能。
講白話:LeCun 說「要會開車才算」,Hassabis 說「會做你 90% 的工作就已經夠了」。
Musk 轉推 Hassabis,留了一句挖苦 LeCun 的話。這場原本是兩個頂級學者之間的技術爭論,瞬間變成矽谷圈的公開吵架現場。
但注意一件事:Hassabis 雖然在反駁 LeCun,可他自己也不是純 LLM 派。DeepMind 這幾年真正投入資源做的,是 Gemini、AlphaProteo、AlphaFold 這類「LLM 當殼、核心是別的東西」的系統。
所以第二槍的真相是:連反駁 LeCun 的人,也不是在捍衛「純粹 LLM 路線」。他只是不同意 LeCun 對 general intelligence 的定義而已。兩個人其實在同一件事上站同一邊——LLM 不夠。
第三槍:Jim Fan 宣布「2026 是世界模型之年」,順便開源 DreamDojo
如果 LeCun 是丟嘴炮,Jim Fan 就是直接把東西砸在桌上。
Jim Fan 是 NVIDIA 的 AI 總監,也是 GR00T 人形機器人項目的 Co-Lead。這週他發了一串長推,核心就一句話:
「LLM 的下一代不是 LLM。是 World Model。2026 是世界模型元年。」
然後他做了一件比喊話更重的事:把 NVIDIA 內部的 DreamDojo 專案直接開源——權重、代碼、post-training 資料集一次放出來。這在 NVIDIA 的慣例裡極少見,等於他不只是在講理論,是在用行動為世界模型路線下注。
他提了一個新詞叫「Second Pre-training Paradigm」。翻成人話就是:
- 第一代 AI 的預訓練素材是文字(維基百科、書、網頁)。訓練完的產物是 LLM。
- 第二代 AI 的預訓練素材是影像、物理模擬、感測器資料。訓練完的產物是 World Model。
- 自駕車、機器人、家庭助理——這些 LLM 做不到的事,要靠 World Model 才有機會。
Jim Fan 這一槍跟 LeCun 的差別在於:LeCun 在說 LLM 錯了,Jim Fan 在說 LLM 對過、但該換下一棒了。前者是否定,後者是迭代。但不管哪種,結論都指向同一個地方:下一個五年的故事,不會只發生在 LLM 身上。
第四槍:Karpathy 說「我已經不怎麼用 LLM 寫代碼了」
前三槍都是隔空對轟,只有第四槍是用腳投票。
4 月 2 日深夜,Andrej Karpathy——前 OpenAI 聯合創始人、前 Tesla AI 總監,過去三年最會教大家用 LLM 寫代碼的那個人——發了一條長推,大意是:
「我已經不太把 token 花在寫代碼上了。現在我大量的 LLM 使用量,是在把論文、GitHub repo、文章、圖片一步一步編譯成我自己的結構化知識庫。單一主題目前已經累積到大約 100 篇、40 萬字。」
這條推文爆了。他後來還補了一版「idea file」版本,說在 agent 時代,分享「想法」比分享「代碼」更有價值。
看到這段你可能會想,「他不就是換了一個用 LLM 的方法嗎?這跟 LeCun 有什麼關係?」
關係在於:過去三年,Karpathy 親自教過全網數百萬人「怎麼用 LLM 寫代碼」。他的 YouTube 頻道、他的 nanoGPT、他的那句 “software 2.0″——幾乎是整個 agentic coding 敘事的起點。現在這個起點出來跟你講:我自己不寫了。
這跟 Altman、Dario 現在還在賣「Claude Code 會取代程序員」的故事,完全不是同一個方向。
LeCun 是大聲說:LLM 路線錯了。Jim Fan 是說:LLM 路線該換棒了。Karpathy 是用動作說:LLM 最被吹的那個應用,我親自用下來覺得沒那麼好。
四個人其實在講同一件事
你把四段話放一起看。表面上他們在互懟,實際上四個人在同一件事上做了同一個判斷——「LLM 是手段,不是終點。」
| 人物 | 身份 | 立場 | 動作 |
|---|---|---|---|
| LeCun | Meta 首席科學家、圖靈獎得主 | LLM 不是未來 | 公開演講「AI sucks」 |
| Hassabis | DeepMind CEO、圖靈獎得主 | 智能的定義比 LLM 更廣 | X 公開隔空反駁 |
| Jim Fan | NVIDIA AI 總監、GR00T Co-Lead | 世界模型才是下一代 | 開源 DreamDojo |
| Karpathy | 前 OpenAI 聯合創始人 | LLM 寫代碼不是最佳用法 | 親自改變工作流 |
你再對照一下,同一週 CEO 們在做什麼:Altman 發 13 頁白皮書,繼續賣「超級智能來臨,要準備新政」的故事。Zuckerberg 丟 Llama 4(還是 LLM)。Google 丟 Gemma 4(還是 LLM)。
四個做技術的人說「LLM 不是答案」,四個做生意的人還在「LLM 再加大」。這個落差,就是這週最值得散戶注意的訊號。
給散戶的可執行結論:你該開始注意這兩個詞
先講一個不負責任但真實的觀察:大部分「AI 路線判斷錯誤」的產業變動,散戶是後知後覺的。等你在中文媒體看到「世界模型時代來了」這種標題,NVDA 早就跑了一波。
所以這週的四聲槍響,給你實際能做的是兩件事:
1. 盯住「世界模型(World Model)」這個詞
它接下來 12 個月會變成新的關鍵字。你會開始看到:NVIDIA Cosmos、Wayve、DeepMind Genie、Meta V-JEPA 這些名字頻繁出現。看到就點進去讀一下,不用深入,有個印象就好。
跟投資的關聯是:世界模型對硬體需求比 LLM 還兇。LLM 吃 GPU,世界模型吃 GPU + 模擬環境 + 感測器資料。NVDA 的第二曲線大概率會從這裡長出來。
2. 重新審視你現在的 LLM 工作流
Karpathy 那條推文其實藏了一個實操指令:不要再把 LLM 當成「寫代碼工具」,開始把它當成「知識管道」。
具體怎麼做?三步:
- 把你讀過的好東西「倒」進 LLM。論文、GitHub README、部落格文章、Podcast 逐字稿——丟進 Claude 或 Gemini,讓它幫你整理成有結構的筆記(不是摘要,是拆成主題的筆記)。
- 按主題累積,不按時間累積。同一個主題的新素材出現,就讓 LLM 整合進原有的筆記,而不是新開一份。三個月後你會有一份該主題的「活的維基」。
- 每週回頭問 LLM 一次。「過去一週關於 X 主題,我累積了哪些新的衝突點或矛盾?」這個問題會逼 LLM 從你的知識庫裡找出「你自己沒注意到的變化」。
這套工作流不需要新工具、不需要新訂閱,就是把你本來就在用的 Claude 或 ChatGPT,從「寫代碼/寫文案」換個用法而已。但它剛好就是 Karpathy、也剛好就是 LLM 最擅長的用法。
最後一句
2026 年 4 月第一週,四個懂 LLM 的人集體轉向。CEO 們還在賣老故事,散戶還在追 AGI 敘事。
歷史經驗告訴我們,當技術發明者本人開始往另一個方向走的時候,轉折通常已經發生了,只是媒體和市場慢了兩季而已。
你不需要立刻做什麼大動作。但下次你聽到「AI 就是 LLM、LLM 就是未來」這種話的時候,記得這週。
延伸閱讀
※ 本文為科技觀察與 AI 產業分析,所有事件時間與引言以英文原始來源為準。文中提及公司與產品不構成投資建議。截至 2026 年 4 月 8 日整理。

發表迴響