OpenAI執行長Sam Altman最近在《金融時報》採訪時透露,為了接下來「通用人工智慧」(Artificial General Intelligence,AGI)的發展,他正在跟微軟爸爸爭取更多的資金。看來,AGI似乎已經成為各方AI角逐者的終局目標。只是,AGI究竟是什麼呢?好巧不巧,前陣子Google Deepmind發表一篇名為〈通用人工智慧等級:實現通往AGI之路的進展〉(Levels of AGI: Operationalizing Progress on the Path to AGI)的論文,試圖重新定義這個顯得既氾濫又模糊的名詞,為AGI提供了一個更為實際且更有助於討論的全新框架。
AGI的9派定義介紹與局限
起先,我也和大家一樣大惑不解,為何要幫AGI分等級?《幽游白書》真人影集預告才剛釋出,難不成這是受到日漫影響,妖力S級、A級……之類的?仔細看了看論文,才發現Deepmind拿出「自駕等級」類比,就像國際汽車工程師學會(SAE)在2021年提出的自動駕駛分級,是從「駕駛輔助」到「完全自動」一共分作L1至L5五級,AGI也應該理當分級才是。嗯,確實有幾分道理。
在武斷地做出AGI的等級區分之前,Deepmind的論文先對過往AI大大們所提出的「AGI定義」進行一番指點和討論,來了一場禮貌大回顧。
1. 圖靈測試
先從最OG的「圖靈測試」(Turing Test)回顧起。圖靈在1950年發表了劃時代論文,他預言人類創造出具備智慧的機器的可能性。由於難以確切定義出何謂「智慧」,因此他提出了圖靈測試——也就是一台能與人類對話、並且不被辨別出機器的身分,那就通過了圖靈測試。
但眾所皆知,如今包括GPT在內的許多LLM都已經通過了圖靈測試。但很顯然,它們都還不算真正的AGI。
2. 強AI:擁有意識的系統
「強人工智慧」(Strong AI)是哲學家約翰塞爾(John Searle)提出的概念,他認為在經過適當的編程並賦予正確的程式之後,電腦也算是擁有思維。但某種程度來說,把AGI的構成條件推往更難被定義的「意識」,反倒更難進行討論。
3. 人腦類比
AGI一詞最早出現在馬克古布魯德(Mark Gubrud)在1997年的軍事技術的文章,他定義AGI是「在複雜性和速度上媲美或超越人腦的AI系統」。但Deepmind的論文指出,就算現代機器學習和神經網絡的確受到人腦的啟發,但未必就代表AGI得依照人腦的模式發展。
4. 認知任務達人類水準
這個AGI定義聽起來蠻合理,直到生成式AI的出現。何謂認知任務?簡單來說,就是非體力活的工作。可是,ChatGPT或Midjourney等工具都已經達到人類的水準了啊。那是不是能說,現在AI已經達到通用人工智慧的等級了呢?(打完收工)
5. 學習能力
倫敦帝國理工學院認知機器人學教授Murray Shanahan在他的著作《科技奇點》(The Technological Singularity)提出:「AGI是一種不專門執行特定任務的AI,而是能夠學習並執行與人類一樣廣泛任務的AI。」他的AGI框架,更強調了學習和通用的重要性。
6. 具備經濟價值的工作
根據OpenAI 2018年的憲章定義,AGI指的是「在大多數經濟價值工作中超越人類的高度自動系統」。但Deepmind論文認為這個定義有點狹隘,畢竟有許多與智慧相關的工作,並沒有明確的經濟價值,比方說藝術和創造類的工作。
7. 靈活與通用:咖啡測試與其他挑戰
另一位認知心理學科學家、前陣子才狂嗆Yann LeCun的Gary Marcus也有自己的AGI定義。他認為,AGI指的是在靈活性和通用性都具備了相當於或超越人類智慧的AI,他一共列出了五項任務類別,從看懂電影,到會在任何的廚房裡做飯。Deepmind論文說這很類似於蘋果的另一位史蒂夫Steve Wozniak曾提出的「咖啡測試」,指的是通用人工智慧,得到任一個美國家庭,找到咖啡機、找到咖啡豆、加水、找到杯子、到按下正確的按鈕,最終泡好一杯咖啡才算合格。
8. 人工「能力」智慧
另一位AI大咖,Deepmind創辦人、現又創立Inflection AI在搞另一個聊天機器人Pi的Mustafa Suleyman,在今年也出版了新書《即將到來的浪潮》(The Coming Wave)。裡頭提出人工能力智慧(Artificial Capable Intelligence,ACI)的概念,更著重在AI能做什麼,指出是「具有足夠能力和通用性,以完成開放世界的複雜、多步驟任務的AI系統。」他還提出他版本的「現代圖靈測試」,是他會拿出十萬美元給AI,而假設AI有辦法在幾個月內翻成一百萬美元就算通過。嗯,能做到我也服了。
9. 大型語言模型已是通才
兩位Google研究院的大神Blaise Agüera y Arcas和Peter Norvig最近提出,目前較為領先的大型語言模型(GPT-4、Bard、Llama 2、Claude)都已經算是AGI了。他們認為「通才」是AGI的關鍵屬性,而這些語言模型已經有足夠的通用性,比方可進行廣泛的討論、執行各種任務、處理多模態輸入輸出、多種語言操作等等。
AGI等級:從菜雞到超人
綜上所述,Deepmind論文接著歸納出更實用的「AGI 6大原則」來進行AGI的分級與定義:1)重點在於AI能做到什麼,而不是它如何做到;2)通用性和能力同樣重要;3)認知型任務與學習新事物的能力是衡量的標準;4)重點在於潛力而非部署;5)生態效度,也就是在真實世界的實用性很重要;6)關注在通往AGI的道路,而非單一終點。
好的,如果你看到這邊已經逐漸恍神了,那不妨直接來看AGI的等級表吧!
通用性與能力 | 狹義(專才,特定任務) | 廣義(通才,廣泛的非體力任務,包括學習新技能等後設認知能力) |
Level 0:非AI | 狹義非AI 計算機軟體;編譯器 | 廣義非AI 人類訓練師計算,例如亞馬遜土耳其機器人 |
Level 1:新手 等於或略優於無技能的人類 | 新手級狹義AI GOFAI;簡單基於規則的系統,例如SHRDLU(Winograd,1971) | 新手級AGI ChatGPT (OpenAI, 2023), Bard (Anil et al., 2023), Llama 2 (Touvron et al., 2023) |
Level 2:熟手 贏過50%的有技能成年人 | 熟手級狹義AI 毒性檢測器,例如Jigsaw (Das et al., 2022); 智慧喇叭,例如 Siri (Apple)、Alexa (Amazon) 或 Google Assistant (Google); VQA系統,例如PaLI (Chen et al., 2023); Watson (IBM); 可用於如短文寫作、寫簡單程式的現行大型語言模型 | 熟手級AGI 從缺 |
Level 3:專家 贏過90%的有技能成年人 | 專家級狹義AI 拼字和文法檢查器,例如Grammarly(Grammarly,2023); 圖像生成模型,例如Imagen(Saharia et al., 2022),Dall-E 2(Ramesh et al., 2022) | 專家級AGI 從缺 |
Level 4:大師 贏過99%的有技能成年人 | 大師級狹義AI Deep Blue(Campbell et al., 2002), AlphaGo(Silver et al., 2016, 2017) | 大師級AGI 從缺 |
Level 5:超人 超越所有人類 | 超人級狹義AI AlphaFold(Jumper et al., 2021; Varadi et al., 2021), AlphaZero(Silver et al., 2018), StockFish(Stockfish, 2023) | 超人級AGI 從缺 |
人類躺平AI才可怕
既然這篇Deepmind論文是以「實用性」作為出發點,那想必AGI的等級就不會只是列爽的。AI熱潮以降不斷出現的各種AI威脅論,大家都是耳熟能詳,只是對話很難聚焦的原因,就在於各方並沒有以相同的定義來作為討論的基礎。因此,這篇Deepmind論文就用了這個新框架,清楚地告訴我們,不同等級的AGI可能引發的風險與威脅。
自主性等級 | 範例 | 需解鎖的AGI等級 | 導入風險與威脅 |
Level 0:非AI 人類做所有事 | 模擬方法(例如用鉛筆在紙上素描); 非AI的數位工作流程(例如在文字編輯器中打字、在繪畫程式中繪圖) | 非AI | 零風險 |
Level 1:把AI當工具 人類完全控制,只是用AI自動執行普通的任務 | 用搜尋引擎尋找資訊; 用檢查文法App修改寫作; 用機器翻譯App讀取圖示 | 新手級狹義AI; 熟手級狹義AI | 因過度依賴AI而失去技能; 破壞原有產業 |
Level 2:把AI當顧問 當人類召喚時,AI能發揮實質的作用 | 依賴語言模型來進行文件摘要; 使用程式生成模型加入電腦程式編寫; 透過複雜推薦系統來消費娛樂 | 熟手級狹義AI; 專家級狹義AI;新手級AGI | 過度信任; 社會激化; 隱私成為目標; 被操控 |
Level 3:把AI當夥伴 針對目標和任務互動協調,人類與AI平等協作 | 藉由與下棋AI對練,訓練成為西洋棋手; 與AI生成的虛擬人進行社交互動和娛樂 | 新手級AGI; 專家級狹義AI; 熟手級AGI | 擬人化(例如,寄生社會關係,指忽略實體生活社交);快速社會變革 |
Level 4:把AI當專家 主要由AI負責,人類提供指導和回饋 | 使用AI系統來推進科學發展(例如蛋白質折疊); | 大師級狹義AI; 專家級AGI; | 大規模的社會倦怠; 大規模勞力置換(例如失業); 人類卓越性的殞落(人類的價值受到挑戰) |
Level 5:把AI當代理人 完全自主的AI | 自主AI驅動的個人助理 | 大師級AGI;超人級AGI | AI與人類的價值對齊問題; 權力集中(得AI者得天下) |
值得注意的是,AGI的能力高低並不直接與風險的高低有關,反倒是人類在部署AI時,為了偷懶的緣故而賦予AI「自主性」(Autonomy),這才會導致潛在的威脅。這點是人類在應用AI時需要去注意的,畢竟一個高能力但低自主性的AGI,還是相對安全的,因為它的行動仍然受到人類的控制和監督。好的。看起來這篇Deepmind論文真的把接下來的AI發展,以及可能性的風險講得頗清楚了。不曉得大家是否期待著這樣的未來呢?