先前我們介紹過不少腦機介面(Brain-Computer Interface,BCI)的應用,從使用這項技術來打遊戲、控制虛擬化身,到伊隆·馬斯克頗具爭議的公司Neuralink,這些都體現了人們對於「潛行」與「腦控」的想像。然而,研發腦機介面的初衷和核心應用領域,始終是在醫療領域。讓因為各種原因而無法移動、無法言談的病患,能有機會透過「用想的也能通」的方式,突破身體的限制,重新獲得溝通的可能。
加州大學戴維斯分校健康研究中心(UC Davis Health)開發的一種新型BCI技術,成功解決了漸凍症(ALS)患者因喪失語言能力而面臨的交流障礙。透過在患者的大腦植入感應器,能即時解讀腦波訊號,並結合AI將這些訊號轉為客製化語音,讓漸凍症患者可以重新「說話」,而且,準確度竟高達97%,這到底是怎麼做到的呢?
這個實驗的受試者是一名45歲的男性,凱西·哈雷爾(Casey Harrell),他的生活因漸凍症而發生了巨大變化。隨著病情的進展,凱西不僅四肢難以移動,還逐漸失去了說話的能力。
本次實驗中採用了以醫療與學術用途為主的腦機介面系統BrainGate2,研究人員在凱西大腦的左側前中央回(left precentral gyrus)植入四個感應器,用來記錄來自256個皮層電極的大腦活動。接著,透過AI分析這些腦波訊號,轉化為音位(語音的基本單位),再組織成完整的單詞。
有了單詞還不夠,為了要讓凱西真的能重新「說話」,研究團隊採用他生病前的聲音樣本進行訓練,以AI生成接近原始語音的合成聲音,讓輸出的文字能夠被即時「講」出來。
在初步的語音數據訓練階段,系統只花了30分鐘便學習到50個詞彙,準確率有99.6%。第二個訓練階段中,系統在1.4小時就將詞彙量擴充到125,000個,並已達到90.2%的單詞準確率。隨著逐步蒐集數據,穩定達到了97.5%的高準確率,是目前類似系統中最為精準的。
過去,大家熟悉的物理學家霍金,他是透過Intel研發的Assistive Context-Aware Toolkit(ACAT)來「說話」,ACAT採用肌肉偵測與預測系統來幫助漸凍人更直覺的鍵入字句,再透過語音合成輸出。即便Intel在今年三月釋出最新一代ACAT 3.0,結合了非侵入式腦機介面,但依舊需要使用者透過虛擬鍵盤來輸入想說的話。本次實驗的植入式BCI風險與成本雖然相對較高,不過,對於患者來說,多了一個能夠更加自由溝通的選擇。
在影片中,凱西透過這個裝置「說」出他的感動,裝上腦機介面之後他能夠重新回到社會,並且讓他的工作更不受肢體限制。凱西的故事只是開始,相信在腦機介面技術逐步普及且風險降低後,未來將有更多像凱西這樣的人能夠重獲新聲。