根據(jù) Live Science 4 日的報(bào)道,一項(xiàng)新的研究發(fā)現(xiàn),與 AI 模型進(jìn)行兩小時(shí)對(duì)話,就能準(zhǔn)確復(fù)制一個(gè)人的個(gè)性。
這項(xiàng)研究來(lái)自谷歌和斯坦福大學(xué),他們通過(guò)與 1052 名參與者進(jìn)行兩小時(shí)訪談,創(chuàng)建了“模擬代理”——AI 的個(gè)性化復(fù)制品。這些訪談被用來(lái)訓(xùn)練一個(gè)生成型 AI 模型,模仿人類(lèi)的行為。
為了驗(yàn)證 AI 復(fù)制品的準(zhǔn)確性,每位參與者都完成了兩輪人格測(cè)試、社交調(diào)查和邏輯游戲,并在兩周后再次進(jìn)行相同的測(cè)試。當(dāng) AI“復(fù)制品”進(jìn)行了這些測(cè)試時(shí),它們的回答與真實(shí)參與者相符的準(zhǔn)確率高達(dá) 85%。
研究人員認(rèn)為,能夠模擬人類(lèi)行為的 AI 模型可能在多個(gè)研究領(lǐng)域發(fā)揮作用。例如,它可以幫助評(píng)估公共衛(wèi)生政策的效果、了解公眾對(duì)產(chǎn)品發(fā)布的反應(yīng),甚至模擬對(duì)重大社會(huì)事件的反應(yīng),這些問(wèn)題由于成本高昂、操作復(fù)雜或倫理問(wèn)題而難以通過(guò)真人參與研究。
研究人員在論文中提到:“模擬人類(lèi)的態(tài)度和行為可以為研究人員提供一個(gè)實(shí)驗(yàn)平臺(tái),用于測(cè)試各種干預(yù)措施和理論。每個(gè)模擬個(gè)體都能參與到不同的社會(huì)、政治或信息環(huán)境中。”他們補(bǔ)充道,這種模擬還可以幫助試行新政策,探索因果關(guān)系和背景因素的互動(dòng),并加深我們對(duì)制度與網(wǎng)絡(luò)如何影響人們的理解。
研究人員也意識(shí)到,這項(xiàng)技術(shù)可能被濫用。AI 和“深度偽造”技術(shù)已被不法分子用于欺詐、冒充和操控他人。模擬代理人也可能被誤用。
然而,他們認(rèn)為,這項(xiàng)技術(shù)為我們提供了以前無(wú)法實(shí)現(xiàn)的方式來(lái)研究人類(lèi)行為,能在高度可控的測(cè)試環(huán)境中進(jìn)行實(shí)驗(yàn),避免了傳統(tǒng)人類(lèi)實(shí)驗(yàn)中的倫理、后勤和人際問(wèn)題。