Meta AI 首席科學家楊立昆在巴黎人工智慧峰會中直接點名現在紅透半邊天的ChatGPT 這類大型語言模型(LLM)其實有"先天缺陷"!他認為,人工智慧的未來不在於更大、更猛的法學碩士,而是在於能夠像人類一樣理解、預測並與真實世界互動的“世界模型”。
▋ ChatGPT 們哪裡不夠好? 🤔
➤ 雖然 ChatGPT 很會聊天、寫文章,但楊立昆認為它們少了兩樣東西:
1. 真實世界理解力:ChatGPT 們只會從文字中學習,就像個「書呆子」🤓,不知道外面的世界長怎樣,更別說要跟真實世界互動了。
2. 常識:ChatGPT 們沒有背景知識,所以常常會「胡說八道」(產生幻覺),或是被一些簡單的問題考倒。
➤ 舉個例子: 你跟 ChatGPT 說:「我把牛奶🥛放在桌上,然後出門了,回來後牛奶會在哪裡?」它可能會回答:「在冰箱裡🧊。」因為它從網路上學到「牛奶要放冰箱」,卻不知道你根本沒說要放冰箱!
▋ 莫拉維克悖論:人類覺得簡單的事,人工智慧反而覺得難!
➤ 楊立昆提到一個有趣的現象:我們人類覺得輕而易舉的事情 (像是開車、整理房間),對 人工智慧來說超級難;但我們覺得很難的事情 (像是下棋、寫程式),人工智慧反而學得很快。這表示,人工智慧的發展不能只停留在文字遊戲,要往更深層的感知、推理能力邁進!
▋ 自說自話的困境:ChatGPT 們的「幻覺」從哪來?
現在的LLM都是用“自迴歸”的方式生成文字💬 ,也就是一個字、一個字接下去。但問題是,只要有一個字錯了,後面就會跟著錯下去,就像骨牌效應一樣。這就是為什麼 ChatGPT 們有時候會「胡言亂語」的原因。
▋ 邁向更聰明的 AI:「世界模型」是什麼?
➤ 楊立昆認為,要讓 人工智慧變得更聰明,就要打造「世界模型」。這就像在 人工智慧的腦袋🧠裡建立一個虛擬世界,讓它可以:
👀 看見、聽見、摸到:不只從文字學習,還要能從圖片、影片、聲音等各種資料中學習。
– 預測未來 🔮:可以想像如果做了某件事,接下來會發生什麼。
– 記住過去 📝:可以記住之前發生的事,不會忘東忘西。
– 計劃與推理 🤔:可以像人類一樣思考、規劃、解決問題。
– 安全第一 🛡️:有內建的「安全機制」,不會做出危險的事。
▋ 「系統 2」思考:讓 人工智慧慢下來想
楊立昆說,現在的 人工智慧比較像「系統 1」思考,也就是直覺反應。他希望 人工智慧能像「系統 2」一樣,在行動前先思考、計劃。這就像我們在下棋 ♟️ 時,會先想好幾步棋,而不是隨便亂走。
JEPA架構:人工智慧界的預言家
➤ 為了實現"世界模型",楊立昆提出了一種叫做JEPA的新架構。JEPA不直接預測下一個畫面是什麼,而是預測這個畫面"代表"什麼。
➤ 舉例:就像你看一張風景照,日本環保局不會去猜下一個畫素是什麼顏色,而是會告訴你:“這張照片裡有山⛰️、有水🌊、有樹🌳。」這樣一來,人工智慧就能更有效率地學習,而且不容易出錯。
➤ 實驗結果:梅塔(Meta)的研究團隊已經用JEPA來訓練人工智慧看影片,結果發現,當影片中出現奇怪的現象 (例如東西突然消失👻) 時,JEPA的"預測錯誤"會飆高!這表示JEPA真的學到了一些"常識"。
▋ 開源 人工智慧:讓人工智慧更民主
楊立昆強調,人工智慧的發展不能只掌握在少數大公司手中。他呼籲大家一起打造「開源」的人工智慧平臺,讓更多人可以參與人工智慧的研究與應用。
▋ 結論
楊立昆的演講為我們指明瞭 人工智慧研究的新方向。別再只追逐更大、更炫的法學碩士,一起來探索“世界模型”的奧秘吧!
▋ 演講影片
https://www.youtube.com/watch?v=xnFmnU0Pp-8
▋ 完整內容 (翻譯版)
https://hao.cnyes.com/post/134712