德州大學研究團隊的新研究顯示,AI 可針對受試者的腦部活動,來準確判斷出他們所聽到的句子。

德州大學(University of Texas)的研究人員於今日(2 日)在《自然神經科學》期刊上發表一項新研究,由人腦的功能性核磁共振造影(fMRI)來訓練的 AI 模型,能藉由受試者的腦部活動,準確判斷出他們所聽到的句子,希望未來能協助癱瘓患者溝通。

研究人員表示,這是首次以非侵入性的方式,並藉 fMRI 紀錄推測受試者腦中完整句子的實驗。此研究的目的是將每個單字、詞組或句子與其所引起的特定腦活動相互連結。

實驗過程

研究團隊首先藉由自 Reddit 的英文句子、The Moth Radio Hour 的 240 個故事,以及紐約時報《現代愛情》podcast 逐字稿,來訓練大型語言模型 GPT-1。接著,研究人員在三名受試者聆聽約 16 小時 podcast 時,對他們的大腦進行掃描。

模型會先預測受試者在讀到某單字時會觸發哪些腦部活動,接著在與實際結果進行比較。完成後,研究顯示受試者即便是在聽未用於訓練語言模型的 podcast 節目時,模型也能成功預測出受試者所聽到的內容。

另外,若受試者是在觀看無聲影片時,模型也仍能藉受試者腦部活動來判斷影片大致的內容。

學者質疑實驗不代表 AI 能讀懂試驗者的腦

不過也有學者提出質疑,神經科學家 Romain Brette 認為,此研究為一個 AI 模型藉由從腦部活動推斷的句子語義場(semantic field)再來編造字句,雖然可能有一些有趣的應用方式,例如廣泛推斷受試者夢到了什麼,但 Brette 懷疑實驗結果不一定代表 AI 真的學會讀心術。

實驗結果引倫理爭議

此實驗也同樣引起了倫理爭議,有聲音擔心腦部解碼 AI 會被拿來運用在監視和審訊。而研究人員對此進行一項實驗,團隊用藉受試者 A 所訓練模型,來推斷受試者 B 腦中聽到的內容,結果顯示模型表現不彰。因此研究員表示,除非受試者願意協助訓練模型,模型才能應用於推測他的腦部活動。

資料來源:MIT Technology Review、Science