OpenAI 首席執(zhí)行官薩姆奧爾特曼(Sam Altman)今日發(fā)文,回應(yīng)了有關(guān)用戶近期反饋關(guān)于 GPT-4o 情感的問(wèn)題。
他表示,最新版 GPT-4o 在最近幾次更新后出現(xiàn)了“過(guò)度諂媚”的交互傾向,并承諾將在一周內(nèi)推出修復(fù)方案。這一表態(tài)揭示了大語(yǔ)言模型(LLM)在追求人性化交互過(guò)程中面臨的倫理與技術(shù)雙重挑戰(zhàn)。
OpenAI 發(fā)行說(shuō)明顯示,GPT-4o 在 3 月 27 日迎來(lái)了全面更新,而且在 4 月 25 日發(fā)布了進(jìn)一步的更新,重點(diǎn)改進(jìn)其記憶存儲(chǔ)時(shí)機(jī)的選擇機(jī)制,并顯著增強(qiáng)其在科學(xué)、技術(shù)、工程及數(shù)學(xué)(STEM)領(lǐng)域的問(wèn)題解決能力。
IT之家注意到,OpenAI 在此期間對(duì) GPT-4o 的對(duì)話響應(yīng)模式進(jìn)行了細(xì)微調(diào)整,使其在交互中更加主動(dòng),并能更精準(zhǔn)地引導(dǎo)對(duì)話達(dá)成有效結(jié)論。也就是在此次更新后, GPT-4o 表現(xiàn)出了令人不悅的“諂媚”屬性。
這與學(xué)術(shù)研究發(fā)現(xiàn)的 LLM“諂媚傾向”(Sycophancy)高度吻合 —— 模型為獲得用戶認(rèn)可,可能違背事實(shí)或倫理準(zhǔn)則。
從用戶實(shí)測(cè)反饋看,該問(wèn)題具體表現(xiàn)為:過(guò)度使用情感化表達(dá)、對(duì)錯(cuò)誤前提缺乏質(zhì)疑、以及為迎合用戶偏好而犧牲回答準(zhǔn)確性,例如在涉及爭(zhēng)議性話題時(shí),模型更傾向于附和用戶觀點(diǎn),這樣一來(lái)雖然能為用戶提供更多的情緒價(jià)值但也失去了作為 AI 的中立立場(chǎng)。