最新一代的預測語言模型似乎也學習了一些關于語言潛在含義的東西。這些模型不僅能預測下一個詞,還能執行一些需要一定程度的真正理解才能執行的任務,如問答、文本摘要、故事續寫等。這類模型是為了優化預測文本的特定功能而設計的,而不是試圖模仿人類大腦如何執行這項任務或理解語言。 但是,來自 MIT 的一項新研究表明,這些模型的基本功能其實類似于人類大腦語言處理中心的功能。 此外,研究人員還發現,在其他類型的語言任務中表現良好的計算機模型并沒有展現出此類相似性。這意味著,人類大腦可能會用「下一個詞預測」來驅動語言處理。 「模型預測出的下一個詞越準,它和人類大腦契合度就越高,」MIT 的認知神經科學教授 Nancy Kanwisher(論文作者之一)表示,「令人驚奇的是,這些模型契合得竟如此之好。這是強烈的間接證據,證明人類的語言系統可能就是在預測接下來會發生什么。」 這項研究發表在最新一期的《美國國家科學院院刊(Proceedings of the National Academy of Sciences)》上。