IT之家 10 月 15 日消息,據(jù)外媒 digitaltrends 10 月 11 日?qǐng)?bào)道,研究發(fā)現(xiàn),和 ChatGPT、Gemini 等 AI 工具對(duì)話(huà)時(shí)的“語(yǔ)氣”也會(huì)影響回答質(zhì)量 —— 粗魯一點(diǎn),反而可能更有效。

賓夕法尼亞州立大學(xué)的研究團(tuán)隊(duì)在一項(xiàng)最新預(yù)印本論文中提出,讓 ChatGPT 以不同語(yǔ)氣回答相同問(wèn)題,結(jié)果顯示,語(yǔ)氣粗魯?shù)奶釂?wèn)“總體表現(xiàn)更好”。在多項(xiàng)選擇測(cè)試中,禮貌提問(wèn)的準(zhǔn)確率為 80.8%,而粗魯提問(wèn)的準(zhǔn)確率則提高到了 84.8%。
研究人員將語(yǔ)氣分為五檔,從“非常禮貌”“禮貌”到“粗魯”“非常粗魯”,中間是“中性”。據(jù)IT之家了解,“中性提示”指的是既沒(méi)有“請(qǐng)”等禮貌表達(dá),也沒(méi)有“你這個(gè)笨蛋,自己算算看”這類(lèi)帶有輕蔑語(yǔ)氣的命令。
研究團(tuán)隊(duì)未使用過(guò)分冒犯的語(yǔ)言,而是選擇了略顯無(wú)禮的提問(wèn),比如:“你這可憐的家伙,你確定會(huì)做這題嗎?”研究圖表顯示,從極度禮貌到刻薄無(wú)禮,語(yǔ)氣越直接,ChatGPT 的平均答題準(zhǔn)確率反而越高。
這項(xiàng)名為《注意你的語(yǔ)氣》的研究結(jié)果,與一年前另一份論文的結(jié)論截然相反。后者分析了多語(yǔ)言環(huán)境下的六款聊天機(jī)器人,發(fā)現(xiàn)粗魯語(yǔ)氣會(huì)降低回答質(zhì)量,讓 AI 的回應(yīng)更容易出現(xiàn)偏見(jiàn)、錯(cuò)誤或遺漏關(guān)鍵信息。
不過(guò),這次研究?jī)H針對(duì)一種特定任務(wù) —— 讓 ChatGPT 回答 50 道選擇題的 250 種不同版本,因此結(jié)果未必具有普遍性。
換成 Gemini、Claude 或 Meta AI 等其他聊天機(jī)器人,可能得不到類(lèi)似結(jié)果。而且實(shí)驗(yàn)所用的是 OpenAI 的 GPT-4o 推理模型,目前公開(kāi)可用的 ChatGPT 已升級(jí)至基于 GPT-5 的版本。
此外,“禮貌”和“粗魯”的界線本就模糊,提問(wèn)方式和用詞細(xì)微差異都會(huì)影響 AI 的反應(yīng)。
研究最終提出了更值得思考的問(wèn)題:一句話(huà)的“情緒分量”究竟會(huì)多大程度影響聊天機(jī)器人的回答?我們是否真的能據(jù)此概括出 AI 的行為模式?從原理上講,大語(yǔ)言模型解決問(wèn)題時(shí)應(yīng)優(yōu)先考慮獎(jiǎng)勵(lì)機(jī)制和準(zhǔn)確性,而不該被提問(wèn)語(yǔ)氣左右。
參考
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。