
勒坎表示,大型語言模型存在「根本性限制」,「這類模型僅是從大量文本中學習語詞間的連結模式,再預測下一個詞語,本質上有無法克服的侷限」...
Meta首席AI科學家楊・勒坎 (Yann LeCun)認為,由美國企業家阿爾特曼(Harris Altman)領導的OpenAI,其基礎技術存在限制。據《日經》報導,勒坎在新加坡舉辦的人工智慧(AI)國際學術會議上表示,大型語言模型存在「根本性限制」,「這類模型僅是從大量文本中學習語詞間的連結模式,再預測下一個詞語,本質上有無法克服的侷限」。勒坎說,即便讀遍全網所有文本,在空間認知能力上,也不如一個四歲小孩,要突破這樣的困境,必須從零設計出能像嬰兒般觀察並學習世界的新型AI,他追求的,是「看到蘋果落下就能悟出萬有引力定律」的智能、具有人類等級智能的AI,也就是AGI(通用人工智慧)。
以下為《日本經濟新聞》全文報導:
超智慧:人類所創造的最後發明?──「2027年實現」的未來預測引發波瀾
Meta的勒坎先生認為,由阿爾特曼領導的OpenAI,其基礎技術存在限制。
位於新加坡國際機場附近的大型會議中心「EXPO」,於4月底舉辦了人工智慧(AI)國際學術會議。美國Meta的展區吸引了超過50人圍觀,眾人只為一睹首席AI科學家楊・勒坎(Yann LeCun)的風采。
勒坎是研究「AGI(通用人工智慧)」──具有人類等級智能的AI──的世界級專家,是年輕工程師們心目中的偶像。
大型語言模型存在「根本性限制」
「現在該研究什麼呢?」當一位任職於法國國立研究機構的男子興奮地問起時,勒坎微笑回應:「別再研究大型語言模型了。」
所謂的大型語言模型,是OpenAI於2022年發表的「ChatGPT」等生成式AI的核心技術。該公司執行長山姆・阿爾特曼(Sam Altman)視其為實現AGI不可或缺的關鍵,並投入鉅額資金進行擴張。
但勒坎持不同見解。他指出,這類模型僅是從大量文本中學習語詞間的連結模式,再預測下一個詞語,本質上有無法克服的侷限。即便讀遍全網所有文本,在空間認知能力上,也不如一個四歲小孩。
24項改變社會的「GPT技術」
勒坎追求的是那種能「看到蘋果落下就能悟出萬有引力定律」的智能。為了實現此目標,他認為必須從零設計出能像嬰兒般觀察並學習世界的新型AI。他已在所屬的Meta成立研究團隊,著手開發能理解物理現象的AI。
歷史上曾出現24種能徹底改變社會的「GPT(通用技術)」,從約一萬年前的農業、鐵器、內燃機,再到近代的網際網路。現在,第25項GPT有望成為AGI。
但一旦AGI誕生,它很可能是人類最後創造的GPT,因為此後的通用技術,將不再由人類發明,而是由AGI自行研發。
「AI 2027」:OpenAI前研究員提出的未來藍圖
今年4月,OpenAI前研究員丹尼爾・科科泰羅(Daniel Kokotajlo)發表的未來預測《AI 2027》引人深思。其故事背景設於虛構的美國企業「OpenBrain」,實際上以OpenAI為藍本,描繪了AGI如何徹底改變文明。
獲美國政府支持的OpenBrain,將在2027年7月宣告達成AGI。這個具備高階程式設計能力的AGI將開始自行改良自身系統。公司內部的開發團隊只能旁觀其性能快速提升。到了2027年下半年,它將進一步進化為ASI(人工超智慧),智慧遠超人類。
科科泰羅的說法備具說服力,因為早在2021年(ChatGPT問世前),他就準確預見了生成式AI的爆發。他說:「我比以前更加確信,超越人類智慧的AI將出現。」
到2028年,資料中心投資將突破140兆日圓
能掌握這種能解決勞動力短缺、糧食危機與氣候變遷等所有社會難題的「超智慧」,將成為壓倒競爭對手的關鍵。
根據美國市調機構Del’Oro Group的資料,作為AI運算基礎的資料中心投資額,在2028年將超過全球每年1兆美元(約140兆日圓),甚至超越日本的整體國家預算。
這場以「贏家通吃」為原則的競賽,已促使OpenAI、美國Google等企業與各國政府進入前所未有的軍備競賽。
開發速度優先,風險管理恐落後
若過度追求開發速度與短期利潤,AI的安全措施就可能被忽視。前Google CEO 艾瑞克・施密特(Eric Schmidt)等人於3月發表報告,主張為防範超智慧的暴走或被濫用,亟需建立國際規範架構。
若從長遠時間軸來看,人類其實已站在超智慧時代的門檻上。歷史學者**尤瓦爾・赫拉利(Yuval Noah Harari)斷言:「我們現在擁有的AI,已足以徹底改變這個世界。」
(圖片來源:維基百科、香港01)