以 ChatGPT 等為代表的大型語言模型(LLMs)在過去幾年中越來越擅長處理和生成人類語言,但這些模型在多大程度上模擬了人類大腦支持語言處理的神經(jīng)過程,還有待進(jìn)一步闡明。
據(jù) Tech Xplore 18 日?qǐng)?bào)道,哥倫比亞大學(xué)和費(fèi)因斯坦醫(yī)學(xué)研究所的研究團(tuán)隊(duì)近期進(jìn)行了一項(xiàng)研究,探索了 LLM 與大腦神經(jīng)反應(yīng)的相似性。研究表明,隨著 LLM 技術(shù)的進(jìn)步,這些模型不僅在性能上有所提升,而且結(jié)構(gòu)上也越來越接近人類大腦。
論文的第一作者加文 米施勒(Gavin Mischler)在接受 Tech Xplore 采訪時(shí)表示:“我們撰寫這篇論文的靈感來源于近年來 LLM 和神經(jīng) AI 研究的迅速發(fā)展。”
“幾年前,有幾篇文章顯示,GPT-2 的詞嵌入與人腦對(duì)語言的神經(jīng)反應(yīng)有一定相似性,但在人工智能這一飛速發(fā)展的領(lǐng)域中,GPT-2 如今已經(jīng)過時(shí),算不上最強(qiáng)大。”
“自從 ChatGPT 發(fā)布后,涌現(xiàn)了許多更強(qiáng)大的模型,但關(guān)于這些新模型是否仍然表現(xiàn)出相同的大腦相似性,相關(guān)研究卻并不多。”
米施勒及其團(tuán)隊(duì)的主要目標(biāo),是探究最新一代的 LLM 是否依然表現(xiàn)出與人類大腦相似的特征。研究人員對(duì) 12 個(gè)不同的開源 LLM 進(jìn)行了分析,這些模型在架構(gòu)和參數(shù)數(shù)量上幾乎一致。同時(shí),他們也通過在神經(jīng)外科患者的腦部植入電極記錄其聽到語言時(shí)的大腦反應(yīng)。
米施勒解釋道:“我們還將同樣的演講文本輸入 LLM,并提取其詞嵌入,這些嵌入是模型內(nèi)部用來處理和編碼文本的表示。為了衡量這些 LLM 與大腦的相似性,我們嘗試通過預(yù)測大腦對(duì)詞語反應(yīng)的神經(jīng)活動(dòng)來評(píng)估它們的對(duì)應(yīng)性。通過這種方式,我們可以了解兩者的相似度。”
在數(shù)據(jù)收集后,研究人員利用計(jì)算工具分析 LLM 與大腦的對(duì)齊程度。他們特別關(guān)注哪些層次的 LLM 與大腦中與語言處理相關(guān)的區(qū)域最為匹配。大腦對(duì)語言的反應(yīng)已知會(huì)逐步通過對(duì)語音的聲學(xué)、語音學(xué)等成分的分析,建立語言的抽象表征。
米施勒表示:“我們發(fā)現(xiàn),隨著 LLM 能力的提升,這些模型的詞嵌入與大腦對(duì)語言的反應(yīng)越來越接近。更出乎意料的是,隨著模型性能的提升,它們與大腦層次結(jié)構(gòu)的對(duì)齊程度也有所提高。這意味著,語言處理過程中大腦不同區(qū)域提取的信息,與性能較強(qiáng)的 LLM 的不同層次提取的信息對(duì)比,更加一致。”
這些研究結(jié)果表明,表現(xiàn)最好的 LLM 更能準(zhǔn)確反映大腦的語言處理反應(yīng)。而且,這些模型的優(yōu)秀表現(xiàn)可能與其早期層次的高效性有關(guān)。