在线观看日韩三级视频,国产久久精品在线播放,精品人妻伦一二三区久久简爱,久久亚洲精品一区二区,日韩人妻一区二区av,欧美黑人又粗又大高潮喷水,国产91精品在线播放,国产欧美日韩一区二区三视频,亚洲一区二区伦理在线

設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

谷歌 DeepMind 新研究強化思維鏈訓練,讓 AI 語言模型不再“紙上談兵”

2025/5/20 13:54:43 來源:IT之家 作者:故淵 責編:故淵

IT之家 5 月 20 日消息,科技媒體 marktechpost 昨日(5 月 19 日)發(fā)布博文,報道稱谷歌 DeepMind 團隊聯(lián)合約翰?開普勒林茨大學 LIT AI 實驗室,通過強化學習微調(RLFT)技術,提升語言模型的決策能力。

IT之家援引博文介紹,基于海量互聯(lián)網(wǎng)數(shù)據(jù)訓練的語言模型已展現(xiàn)出超越文本處理的決策潛力,可以通過內部知識推理,在交互環(huán)境中做出行動選擇。

不過這些語言模型在決策過程存在顯著缺陷:模型能推導正確策略卻無法執(zhí)行(knowing-doing gap,紙上談兵),過度偏好短期高回報選項(greediness,貪婪選擇),較小模型還會機械重復常見動作(frequency bias,頻次偏見)。

傳統(tǒng)強化學習方法如 UCB 算法雖能平衡探索與利用,但難以解決模型內在的推理-行動脫節(jié)問題。

DeepMind 團隊創(chuàng)新采用強化學習微調技術,以模型自生成的思維鏈作為訓練信號,系統(tǒng)會評估每個推理步驟對應的行動獎勵,促使模型優(yōu)先選擇邏輯自洽且實際高效的行動方案。

具體實施時,模型根據(jù)輸入指令和行動-獎勵歷史生成包含推理過程與動作的序列,通過蒙特卡洛(Monte Carlo)基線評估和廣義優(yōu)勢估計進行優(yōu)化;無效動作會觸發(fā)懲罰機制,而獎勵塑造技術既保證輸出格式規(guī)范,又保留探索空間。

在 10 臂的多臂老虎機(multi-armed bandit,MAB,有擁有 N 根拉桿的老虎機,拉動每一根拉桿都對應一個關于獎勵的概率分布)測試中,2B 參數(shù)模型的動作覆蓋率提升 12 個百分點;面對 20 臂時改善幅度雖小但仍有意義,其頻次偏見率從 70% 驟降至 35%。

井字棋實驗中,模型對陣隨機對手的勝率提升 5 倍,與最優(yōu)蒙特卡洛樹搜索代理的對戰(zhàn)平均回報從-0.95 歸零。值得注意的是,27B 大模型生成正確推理的概率達 87%,但未微調時僅 21% 會執(zhí)行最優(yōu)動作,該強化學習微調有效縮小了這一差距。

廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

相關文章

關鍵詞:DeepMind谷歌

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知