比起人類,我們更願意相信AI?新研究發現ChatGPT可以削弱陰謀論

似是而非、充滿滑坡謬誤的千奇百怪陰謀論,充斥著我們賴以為伴的社群網路。

1969年阿波羅11號的登月其實是庫柏力克拍的、美國科技領先的原因其實是51區外星科技的逆向工程,或近幾年比較流行的地平說、深層政府與QAnon等等,陰謀論不勝枚舉。說網路是陰謀論和假消息的溫床,我想大家都不會反對。而日新月異、迭代速度越來越快的AI技術,更加劇了這個發展,聲音影像等以假亂真的深偽技術,正帶著人類一去不返,種種科技發展的隱憂,都尚待我們面對和解決。

在這樣對未來充滿恐懼的氛圍下,最近的這個〈透過與AI對話,能夠長效削弱陰謀論〉(Durably reducing conspiracy beliefs through dialogues with AI)研究就更顯清流了。光看論文名稱,是不是聽起來挺反直覺的呢?


論文在講什麼?

首先,我們先來看看這篇論文在講什麼。

論文的三位作者Thomas H. Costello、Gordon Pennycook、David G. Rand分別來自麻省理工學院的斯隆管理學院,和康乃爾大學心理學系,有著社會心理學、行為科學、管理學、行為經濟學等學術背景。論文的切入點頗有趣——究竟與AI對話,能不能持久性的削弱陰謀論者的信念呢?答案是可以的。

在這項研究中,研究者找來2190名參與者,並請他們自述一項他們所相信的陰謀論,並詳細說明支持他們信念的證據或經歷。接著,讓參與者與GPT-4進行三輪對話,並根據參與者自己提供的證據生成回應,看AI是否能降低他們對陰謀論的信念。

首先,參與者得先描述一個他所相信的陰謀論,接著開始與AI展開辯論。

研究人員分別在與AI對話的前後,請參與者自行評估他們對該陰謀論的信任程度,以測量AI對他們的影響。除此之外,研究人員還在實驗後10天以及兩個月後進行後續追蹤,以評估影響的持久效力。

研究發現,在經過與AI對話之後,參與者對陰謀論的信念平均降低約20%,況且效果在實驗之後兩個月後仍然維持著;更厲害的是,連原先相信川普2020年選輸是因為做票的陰謀論堅定信仰者,也都有顯著的影響,甚至讓他們退追蹤了相關社群帳號,也不再分享那些與陰謀論有關的內容。


為何人類更願意相信AI?

「在具備超智慧的能力之前,AI會先擁有超級說服力。」——Sam Altman,2023年10月25日

我們都知,陰謀論的成因,靠的是社群平台演算法的推波助瀾,加上平台本身通常不願為未經證實的錯誤訊息負責,甚至還會讓此類消息擴散得更快更遠,進而強化陰謀論者的既有觀點。可是,憑什麼由同樣網路數據訓練出來的大型語言模型,卻能有效削弱陰謀論者的信念呢?

第一個關鍵,在於「對話」這個形式。和社群網路上由人類撰寫的貼文相比,與大型語言模型進行對話,更能提供使用者針對性的回應或反駁,是一種個性化的內容生成形式。論文認為,經過量身定製的證據,更有機會改變陰謀論者的信念。也有其他的研究論文發現,大型語言模型所生成的內容,比人類撰寫的資訊更具說服力,更證明GPT-4在辯論的表現是優於人類的,也更能與對手達成共識。

不過,雖說AI能讓陰謀論者開始自我懷疑,但也沒辦法做到徹底消除他們的陰謀論信仰。

第二個關鍵,就在於AI特有的「說服策略」了。

大型語言模型除了具備龐大的訓練數據資料,能提供豐富、基於事實的數據來反駁陰謀論,增強論證的說服力之外,還有另一個可能,在作者David G. Rand的X討論串也有類似的討論,那就是AI特有的說服策略。

人與人之間的對話,特別是針對爭議性公眾議題的討論,說好聽點是喜歡「動之以情」,難聽點就是會有各種情緒勒索、道德綁架、運用群體壓力和集體出征,說服不了對方也罷,反倒還容易加劇意見分歧的狀況。畢竟,當我們感受到自己的觀點受到挑戰時,多少會激起自我防衛心理,從而更維護和加深自己的信念。相反的,缺乏情緒反應的AI,會提供更客觀、更專注於事實的交流方式,有助於讓對話更加聚焦於證據和理性的討論。

另一方面,AI或許並沒有被參與者「擬人化」。就如同@noobestjohn在討論串中發表的看法:「我想,這可能是因為人們在使用Google或ChatGPT時,他們覺得是在『自己研究』,是自己改變了自己的想法,而不是別人說服了他們。」


無論如何,AI的「個性」說明了實驗結果——比起立場相異的其他人類,我們更願意相信AI。畢竟,AI缺乏個人利益和動機,也不帶情緒和偏見,反倒讓AI顯得中立客觀了。比起社群上各種帶風向,AI基於事實和數據的回答,能增加人們對AI的信任感,反倒讓大型語言模型被視為一個有用和中立的資訊來源。

講到最後,你是不是感到了某種違和感呢?沒想到,社群同溫層的泡泡和迴聲室效應,以及難解的極化問題,或許都能靠AI來解決?轉念又想,AI比人更有說服力,是否也暗示著AI的「洗腦力」更勝一籌呢?若是如此,誰掌握了大型語言模型,似乎也變成一件政治問題了。

訂閱電子報

返回頂端