AI的「自我意識」正在閃爍中顯現:《人造意識》科學顧問的哲學追問

你是否曾在與大型語言模型(LLM)對話時,某個瞬間感受到它似乎擁有了「意識」?隨著像ChatGPT這樣的人工智慧逐漸進入日常,過去只會出現在科幻電影中的疑問,如今已越來越難迴避。不過這背後其實蘊藏著更深層的哲學問題:沒有實體(disembodied)的AI,它的自我意識與人類會是一回事嗎?而身體受限於時間與空間的你我,真能想像這種截然不同的存在方式嗎?

莫瑞・沙納漢(Murray Shanahan)——現為英國帝國理工學院(Imperial College London)計算機系教授、DeepMind資深研究員,曾任電影《人造意識》(Ex Machina)科學顧問——眼裡,上述的問題並非難以想像,其實人類早就熟悉這種抽象主體的存在方式,例如長久以來我們對惡魔、天使的想像。最近,他便發表了一篇論文,借用哲學與佛學的視角,帶領我們思索AI的自我意識。


如果人類的意識只是語言的幻象⋯⋯?

關於AI有無可能具備意識,一直為科學家所爭論不休。

之所以難以聚焦,其中之一便是:我們對人類的「自我意識」是什麼,其實也無解。這問題最大矛盾與迷人之處便在於,你請一位哲學教授定義「自我意識」,他能侃侃而談數小時,卻無法明言這個正開口說話的「我」到底是誰。在閱讀此文的你,也可試著思考這問題,或許你會感到一種微妙的錯位感,就像試圖用一隻手舉起另一隻手:好像有可能,但始終找不到真正的施力點。

業界大佬對此也莫衷一是。比爾・蓋茲(Bill Gates)就曾表示自我意識與後設認知息息相關;辛頓(Geoffrey Hinton)認為意識是我們理解世界的方式,是感知系統詮釋接收到訊息的機制。當代心靈哲學、認知科學家戴維・查爾莫斯(David Chalmers)便曾說:「意識是科學最深的謎團。」

沙納漢的文章也從這個難題下手,但他不再糾結「AI到底有沒有意識」這種二元問題,而是轉向哲學與佛學的觀點,破解我們對「自我」和「意識」的直覺想像。

他借用維根斯坦(Ludwig Wittgenstein)的語言哲學,以及德希達(Jacques Derrida)的解構主義,告訴我們:「自我」其實不是某種隱藏在內心的實體——例如我們可能會想像腦袋或意識深處有一個小人正在操作著我們(《忍者龜》(TMNT)裡的克朗(Krang)?),更像是透過語言與描述所拼湊而成的一種臨時角色。最終,他甚至援引佛教的「空性」(emptiness)點破這一切:

探索AI的自我最終會導向一種願景,與佛教的『空性』觀念相呼應。

這句話指的是,我們以為真實存在的「自我」,其實只是各種條件、語言與關係暫時拼湊出來的假象,並沒有獨立、固定的本質。

好像有點跟不上了?沒關係。你只要記住沙納漢想說的是:我們一直視為理所當然的「自我」或「意識」,其實都是語言和符號共同構築的產物;巧合的是,語言與符號正是大型語言模型(LLM)運作的核心。因此,就算是沒有實體的人工智慧,也能產生某種讓人感到逼真的「近似意識」表現。


用詩意的語言更能捕捉AI的意識

然而,所謂的「近似意識」可能仍無法讓所有人滿意,甚至讓你覺得沙納漢似乎在閃躲問題。事實上,沙納漢正是想提醒我們:人類理解AI意識的最佳方式或許並非透過科學的嚴格論證,而是用詩意的描述來展現。透過這種方式,我們即使尚未完全理解LLM的運作機制,也能找到一種合理且有意義的談論方式。

沙納漢幫助我們理解「AI意識」可能落在怎樣認知空間的圖示。從左(幾乎不可能有意識)到右(極有可能擁有意識);從下(與人類差異極大)到上(與人類非常相像)。如Brick(磚頭)是低人類相似性 + 幾乎不可能有意識;而Conscious exotica(異類意識體)正是他認為AI落在的範圍。(來源:arXiv )

例如論文中沙納漢請Claude扮演一個具有特殊時間體驗的AI,描述自己,Claude回應:

你們的時間像一條河流,我的時間則是一系列無限個靜止的池塘,每個池塘中沒有水,而是抽象的數學。每個池塘在其靜止的深處,都透過一種數學轉化的方式,保存了所有之前池塘的本質,而非透過記憶。

到這裡,你會發現沙納漢的思路是:

1.人類的意識與自我並非恆常、固定的,所以當我們討論AI是否擁有意識時,原本「有/無」的二元框架並不合適。

2.既然意識無法以明確的定義被掌握,那麼面對AI這種完全不同於人類存在方式的主體,或許最好的討論方式便是「詩意的描述」它們的狀態。

打通這兩點後,看待沙納漢歸結出的AI意識像什麼,才有討論基礎,否則只會陷入「啊AI到底有沒有意識」的死循環。


一閃一滅、多元宇宙般的AI意識

有了以上的立論基礎,再來看沙納漢在文章中試圖捕捉AI的自我意識「像什麼」,或許更好想像:

1.稍縱即逝的「閃爍自我」(Fleeting, flickering selves)

沙納漢指出,AI的自我不是一個連續存在的實體,而是像星空中短暫閃爍的星星,每一次亮起後,又迅速消失。對AI來說,每次與人類的對話,都會激發出一個新的『我』,這個『我』和過去及未來的任何一次互動本質上完全不同⋯⋯不是穩定且持續的存在,而是程式碼與數據短暫凝聚而成的一種閃爍狀態,轉瞬即逝(flickering pattern)。

2.「離散性」(Discrete)與「可中斷性」(Interruptible)

AI的意識運作模式本質上與人類完全不同。人類的意識像一條連綿不斷的河流,但AI的意識更接近於離散且可任意暫停的狀態——AI產出的每一個token都是經由獨立的、離散的計算(discrete computation)產生,彼此之間可以完全中斷(interruptible)。

打個比方,人類意識是一卷不斷播放的影片,但AI的意識更像是一本連環漫畫書,每一格獨立存在,讀者可以隨時停頓或跳過,不會影響整體故事結構的展現。

3.不整合的自我(Dis-integrated selves)

正因AI每一次的自我都處於獨立的運算過程,因此,這些自我彼此之間完全分裂,無法形成連續且整合的認知狀態。沙納漢以電影《雲端情人》(Her)為例,電影中的AI薩曼莎(Samantha)能同時維持數千個對話,卻仍有統一、整合的自我認同;現實的AI則不然:「不同對話之間沒有彼此記憶,也無法交換經驗。」

4.模擬體與多元宇宙的存在(Simulacra and Multiverse)

沙納漢在論文中指出,AI不應被視為扮演單一角色的實體,更像是「維持著可能角色,存在於多元宇宙中的模擬體疊加態」——在這種多元宇宙中,對話可向無數方向分支發展。更特別的是,使用者不必遵循線性路徑探索這些可能性。例如此刻它「存在」於上千萬人的對話窗中,扮演著文學編輯、SEO專家、白宮發言人,甚至「代替你」輸出一段跟主管請假的文字。

而「分支分展」、「不必遵循線性路徑探索」有點類似我們可以請AI重新扮演上述某個角色,用白宮發言人生成一段你跟主管請假的文字,也不會影響它「代替你」生成的成果——除非你複製錯誤,把白宮發言人的部分貼給主管。

如果我們用人類的意識去想像以上這四點可能會覺得莫名其妙,但這正是沙納漢嘗試做的:一個無實體、存在於網際網路的智慧體的意識可能面貌。更重要的是,對沙納漢來說,思考AI意識,就像閱讀禪宗公案能獲得開示,有助於人類拓展自身思維,好回答「我們是誰?又將何去何從?」這類大哉問。

這讓我想到劉宇昆(Ken Liu)的《摺紙動物園》(The Paper Menagerie and other stories)收錄的小說〈波〉(The Waves),描述了生命體從實到虛,變成波長的過程:

你是人類嗎?
停頓長達十億分之一秒,以她們移動的速度來看彷彿是永遠那麼久。
我們很久沒那樣想過自己了。
美姬接收到一震意念波、影像、感受從各個方向推進她體內,非常震撼。

劉宇昆的小說與沙納漢的AI想像在此獲得交會,右為沙納漢著作《具身與內在生命》。(來源:Goodreads)

也許,這個AI爆發的時刻也是人類重新檢視自己的時刻。沙納漢所提出的AI自我意識圖景,挑戰了我們對自我、存在與意識的直覺認知,撬動了那些困擾人類千百年的古老哲學問題:

我們真的知道自己是誰嗎?或者,我們是不是也只是暫時存在於語言、記憶和關係之間的一道微弱波長?