ChatGPT就是幹話:哲學家指出AI犯的錯是「扯淡」,不是幻覺

關於AI幻覺的話題,我們也聊過不只一次了。根據劍橋詞典,講到AI幻覺時,大多數人在意的就是AI會產生「錯誤訊息」的這個結果。但格拉斯哥大學的三位學者——Michael Townsen Hicks、James Humphries、Joe Slater,或許是因為他們全是哲學家的緣故,對拿「幻覺」(hallucination)來形容AI的錯誤相當感冒,因此在最近發表了一篇批判力道極強、標題同時也非常吸睛的論文——〈ChatGPT就是幹話〉(ChatGPT is bullshit)


什麼是幹話?

〈ChatGPT就是幹話〉一文開宗明義地表達——將大型語言模型(LLMs)生成的錯誤內容視為「幻覺」或「撒謊」是不正確的。畢竟「幻覺」暗示著錯誤的感知,而ChatGPT並沒有感知的能力。撒謊的部分,則是論文著墨較深也更精彩的部分。作者尤其有意思的援引了「幹話哲學家」富蘭克福(Harry Frankfurt)的代表作——《論幹話》(On Bullshit),來作為論文主要的分析基礎。

《論幹話》中,富蘭克福區分了「幹話」(bullshit)與「撒謊」(lying)的不同。

幹話,並不在意話語的真實性,僅關注話語本身的效果;撒謊,則是有意地說出與事實不符的話。更深一步地說,撒謊是有意的欺騙——說話的人既知自己所說為假,還希望誤導大家相信這個謊言;但幹話則不涉及意圖,講幹話並不是故意的,只是對真實性完全沒興趣,他們的目的在於創造某種印象或者效果,而不是傳達事實。

就算「幹話」最終可能產生欺騙的結果,但並非源於對事實的扭曲,而是源於對事實的忽視。

或許你會問:幹話跟ChatGPT有什麼關聯?富蘭克福的幹話理論並沒有停在這兒,作者延伸——幹話有兩種,「硬幹話」(hard bullshit)和「軟幹話」(soft bullshit),軟硬之間,就在於「有無意圖」。那麼回到了問題:如果硬幹話與撒謊都是有意為之,那之間又有什麼不同?

撒謊者,是明知真相,卻「故意」扭曲事實,為的是隱瞞真相,或者創造出錯誤的信念;而說硬幹話的人,雖然也同樣知道真相,但他的目的並非在於真偽本身,而是在於效果本身。舉個例,就像是喜劇演員,段子或許是來自於親身觀察和個人經驗,但由於目的是為了讓台下觀眾發笑,而不是講述大道理,因此段子是一種硬幹話,而不是喜劇演員的內心話。

至於缺乏動機與意圖的「軟幹話」,就和ChatGPT這類的大型語言模型非常相似了——只是根據上下文和先前的文本,計算下一個單詞的機率,隨機生成出看似合理的文本,「這正是對真實性的漠視,而非有意的欺騙」。


「幹話機器」與「幹話人」的產地

幹話就是幹話,即便目的不是講幹話。如果某件事一開始就是幹話,那重複它依然是幹話,因為幹話是由一個不關心他是否在講幹話的人所講出來的話。——哈里‧富蘭克福,幹話哲學家

富蘭克福在2005年出版《論幹話》,他認為日益普及與增加的幹話有危險性,因為幹話,不僅會導致人類無視真相,更會接受這樣的結果。在社群時代,人們為了爭奪演算法注意,再加上現在AI的推波助瀾,真相不僅變得不再重要,對「效果」的追逐更是背後的重點所在。而出來反思AI「幻覺」的幾位哲學家,也沒真的想對AI這麼壞。畢竟,大型語言模型目前只能講講「軟幹話」,把事情通通扔給AI和ChatGPT並不公允,責任還是得回到使用者:那些用著ChatGPT的我們。

「ChatGPT不過是一台幹話機器,而使用幹話機器的人,才是硬幹話人(hard bullshitter)。因為第一,他們壓根不關心AI講的東西是否為真,第二,他們希望讀的人都相信它輸出的內容。」於是,學生們請ChatGPT寫出洋洋灑灑的論文,而教授們又再用ChatGPT,把厚厚的論文重點整理成幾行字,解壓縮、再壓縮,扯淡還真是把知識越扯越淡。再想想,AI,真的解放人類的生產力了嗎?

訂閱電子報

返回頂端