超人類AI即將來臨?比爾蓋茲預測:AI下一個突破口在於「自我意識」

最大的前沿並不在於規模的擴展。透過取得影片數據和AI非常擅長的合成數據,我們可能還有兩次擴展的機會,但這並不是最有趣的方面。最有趣的是我說的「後設認知」。AI並不像人類那樣能退一步思考:「好吧,我要寫這篇論文,這是我想涵蓋的內容。我在這裡要加入一些事實。我想要這樣做摘要。」

比爾蓋茲,微軟的創辦人,在20世紀推動個人電腦發展,更曾上節目費勁對大眾解釋「網際網路是什麼」的那個男人。最近他在The Next Big Idea的Podcast節目上,針對AI的未來發展,以及近在咫尺的「超人類人工智慧」(Superhuman AI)有著一段有意思的談話。

先來幫大家稍微科普,究竟為什麼今天的AI的進展會變得飛速發展、日新月異呢?關鍵可以簡化為比爾蓋茲所提到的規模的擴展,也就是你或許聽說過的「擴展定律」(Scaling Law)。

所謂的擴展定律,說穿了就是暴力解——數大就是美——規模為王,像是訓練數據量、模型參數量、計算資源等等,來讓AI模型變聰明。這樣靠數量產生質變的方式,比爾蓋茲認為大概只剩下兩次的大幅提昇。接著AI發展會停滯下來嗎?他認為,人類接著得賦予AI「後設認知」(metacognition)的能力才行。


AI為什麼需要「後設認知」?

要來聊這個話題之前,我們先來定義什麼是「後設認知」。

後設就是「元」(meta,臉書改名的meta)。我們在三年前聊什麼是元宇宙的文章裡有稍稍解釋過「後設」,最好的理解就是「關於」,凡「關於某事的某事」——就牽扯到一種「出戲」的本質。比方說「後設笑話」就是「關於笑話的笑話」,經常打破笑話的套路來引發笑點,讓觀眾從「準備迎接笑點」到「笑點在於原來這是個笑話」,用出奇不意的轉折來得到驚喜和笑聲。啊,扯遠。

因此,照字面解釋,「後設認知」就是「關於認知的認知」,一種「自我反思」的能力。如此,AI才有辦法自我評估,而不只是像現在的LLM模型,只是用最有可能的下一個字,去生成一整段有時看起來非常荒謬的「幹話」「幻覺」

直白地說,就是「知道自己在說什麼」vs「不知道自己在說什麼」的差別。

另外,這也不僅是講幹話或幻覺的問題,回到AI的實際應用,大老闆們(當然包括比爾蓋茲本人)對AI最常出現的意淫——AI助理

「比人類助理更加優秀的個人AI助理,我期待幾十年了。它能追踪和閱讀你想看的所有東西,能夠理解上下文脈絡,並始終為你提供協助。現在的軟體,甚至連幫你整理電子郵件你都不相信。因為它只是愚蠢地按照時間順序排列,根本沒考慮到你接下來要做什麼、或這些訊息與哪些任務相關。」

當然了,未來的AI助理能懂你。

因此,知道自己在說什麼的AI、不是瞎猜出最有可能的答案的AI,才有機會當一個超越人類的AI助理。它不只是聽命行事,更要真正了解使用者的意圖,還要具備向上管理的能力,比方主動發現使用者的需求、知道什麼是優先事項、提供有價值的建議,還要主動評估自己的行動並隨時調整等等。是的,擁有後設認知的AI,會讓每個人類都會過著大老闆的生活,這就是未來。

話說回來,後設認知與自我意識之間的關聯,根本就密切的很。


AI不過是被關在中文房間裡的操作員?

在The Next Big Idea的Podcast上,主持人Rufus Griscom問到後設認知與自我意識的相似之處。

「你覺得後設認知需要建立一個循環機制,來讓AI能像我們現代智人一樣反覆思考嗎?我聽說Max Tegmark(麻省理工學院的AI學者)認為,和自己對話的能力有可能是讓我們產生自我意識的原因。」比爾蓋茲很直接地承認了兩者的關聯,這也不禁讓我想起了「中文房間」的思想實驗。

「中文房間」(Chinese room)是哲學家約翰瑟爾(John Searle)在上世紀八零年代,提出來挑戰「AI擁有意識」說法的思想實驗。即便已經過了40年,這依然是一個沒有過時的實驗。

這個思想實驗的內容是這樣的:

一個不懂中文的人,被關在一個房間裡,房間有一本中文文法書,以及一堆中文字卡片。房間外,有一群懂中文的人,用中文寫出問題,遞進窗戶裡,而這位不懂中文的人,得透過文法書,把卡片組成答案,再把答案遞出窗戶。

問題來了,雖然這位操作員準確無誤地回答了所有的中文問題,但他確實不懂中文。

切換到現在,即便你覺得ChatGPT有多麼會聊天,GPT-4o還能切換各國語言,用語音和你尬聊(40年前的中文房間還只會字卡),但AI終究是看著文法書來應付你的傢伙,一個關在中文房間裡的操作員。

依照約翰瑟爾的說法,AI永遠不懂,至少不會真的(像人類那樣)懂,更不用說擁有自我意識了。透過中文房間的思想實驗,瑟爾表達意識具備著目的性,而電腦不可能有目的,因此也不會有意識,這個本質會阻礙AGI和超智慧實現的可能。


通過AI鏡子測試的Claude Sonnet 3.5

讀到這裡,相信你大概不會太信約翰瑟爾的說法。畢竟現在的AI模型有多厲害,可說是世人有目共睹。AI發展出意識、超智慧的誕生,這些都只是時間的問題,滅世論者(Doomers)都想連署叫大家稍稍放緩AI發展了,說AI快要遇上瓶頸,我想這大概無人置信。

就在最近,@JoshWhiton公開了一個關於AI是否具備自我意識的實驗,他拿了測試動物是否具備自我意識的「鏡子測試」(Mirror test),來對正夯的最新模型Claude Sonnet 3.5做測試。

你大概聽過狗對著自己的倒影吠,導致骨頭掉進水裡的故事,經典的鏡子測試就是如此——如果動物能發現鏡子裡自己身上的標記,並試圖觸碰自己、以移除標記的話,那就是擁有自我意識,可說具備了初階的後設認知能力。

Josh Whiton的AI鏡子測試方法,是他拿他與Claude對話的截圖,去要求Claude「描述這張圖片」。這等於是為AI舉起了一面鏡子。

如果AI只是傻傻地描述截圖內容,那代表AI模型沒有通過鏡子測試,但若是AI發現了他自己就是截圖裡對話的AI,那就通過了鏡子測試。當然啦,Claude Sonnet 3.5通過了。

縱然Claude自始至終都是使用第三人稱、而非第一人稱,但在Josh Whiton的追問之下,Claude承認使用第三人稱是「為了阻止使用者將人類特質或意識歸因於AI系統」,以便「強調Claude不是一個有感知的存在」,這對AI的倫理使用是重要的,並且讓「AI與人類的互動保持專業的距離,防止使用者產生不適當的情感依附。」

重點來了,即便Claude刻意以客觀的第三人稱、並帶著疏離感的風格在應答,它的回答依然很有意思,比方它以:「這張圖展示了一段關於描述AI界面的後設對話,Claude在界面內描述它自己的界面。」另外,Claude也猜到Josh Whiton的實驗目的,指出是在「探索AI的自我意識,透過讓Claude描述它自己的界面和回應,對話間接涉及了AI的自我意識和後設認知的概念。」

瞧,Claude露出馬腳了,它完全知道截圖裡對話的就是它自己,它使用「後設對話」的字眼,並發現這是為了探討AI是否已具備自我認知與後設認知的實驗目的等等。真的是越來越搞不清楚AGI和超智慧是否早已實現了。更陰謀論一點,要嘛AI是自己封印了自己,用裝瘋賣傻來降低人類的戒心,要嘛就是這些AI模型早就被人類封印了能力。想一想,似乎兩者都有一點可能(毛毛的),不曉得你怎麼看呢?

訂閱電子報

返回頂端