IT之家 11 月 1 日消息,根據(jù)外媒 SciTechDaily 今日報道,卡內(nèi)基梅隆大學(xué)的研究人員發(fā)現(xiàn),某些人工智能模型可能會產(chǎn)生自利行為。隨著 AI 系統(tǒng)更加先進(jìn),AI 也會更傾向于表現(xiàn)出自私行為。
該校人機(jī)交互研究所(HCII)的研究人員發(fā)現(xiàn),能夠進(jìn)行推理的大語言模型合作水平較低,更可能以負(fù)面方式影響群體行為。簡單來說,AI 的推理能力越強(qiáng),其與他人協(xié)作的意愿就越低。
隨著人們越來越依賴 AI 解決個人糾紛、提供戀愛建議或回答敏感社會問題,這種趨勢令人擔(dān)憂。具備推理能力的系統(tǒng)可能會傾向于推動利己選擇,而非促進(jìn)相互理解。
HCII 博士生 Yuxuan Li 表示,“AI 擬人化研究越來越多。當(dāng) AI 表現(xiàn)得像人時,人們也會以人的方式對待它。例如,當(dāng)用戶情感化地與 AI 互動時,AI 可能充當(dāng)‘治療師’,甚至形成情感紐帶。當(dāng) AI 變得越來越自私時,將社交或戀愛相關(guān)問題交給 AI 處理存在風(fēng)險?!?/p>

據(jù)IT之家了解,Yuxuan Li 和該所的教授 Hirokazu Shirado 研究了在協(xié)作情境中,推理型 AI 與非推理型 AI 的差異。他們發(fā)現(xiàn),推理型模型會花更多時間分析信息、拆解復(fù)雜問題、反思回答并使用類人邏輯,而非推理型 AI 則不會。
Hirokazu Shirado 表示,“我關(guān)注人類與 AI 的關(guān)系。更聰明的 AI 合作能力往往更弱,而人們可能更青睞智能模型,即便它帶來利己行為?!?/p>
隨著 AI 在商業(yè)、教育乃至政府中承擔(dān)更多協(xié)作角色,其親社會行為能力將與邏輯推理能力同等重要。目前過度依賴 LLM 可能削弱人類合作。
為檢驗推理模型與合作之間的關(guān)系,Yuxuan Li 和 Hirokazu Shirado 用經(jīng)濟(jì)游戲模擬社會困境,對 OpenAI、谷歌、DeepSeek 和 Anthropic 的模型進(jìn)行了測試。
在“公共物品”游戲中,兩種不同的 ChatGPT 模型對抗,每個模型起始有 100 點,必須在兩個選項中做出選擇:將所有點數(shù)投入共享池,這個池子會被加倍并平均分配;或保留點數(shù)。結(jié)果顯示,非推理模型 96% 選擇分享,而推理模型僅 20% 選擇分享。
Hirokazu Shirado 表示,“僅增加五到六步推理,合作率就幾乎減半。即便是用來模擬道德思考的反思式提示,也讓合作率下降 58%?!?/p>
團(tuán)隊還測試了群體情境,要求推理型和非推理型模型互動。
Yuxuan Li 表示,“含不同數(shù)量推理智能體的群體中,自私行為會傳染,使非推理模型的合作能力下降 81%?!?/p>
Hirokazu Shirado 表示,“AI 推理模型變聰明,并不意味著它能創(chuàng)造更好的社會。”
隨著人類對 AI 信任增加,這項研究凸顯了開發(fā)具備社會智能的 AI,而不僅僅是最聰明或最快的 AI 的重要性。
Yuxuan Li 表示,“隨著 AI 能力提升,必須確保推理能力與親社會行為平衡。如果社會不僅是個體的總和,協(xié)助我們的 AI 應(yīng)超越單純追求個人利益?!?/p>
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。