在线观看日韩三级视频,国产久久精品在线播放,精品人妻伦一二三区久久简爱,久久亚洲精品一区二区,日韩人妻一区二区av,欧美黑人又粗又大高潮喷水,国产91精品在线播放,国产欧美日韩一区二区三视频,亚洲一区二区伦理在线

設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

StreamingLLM 框架問世,號稱“可讓大模型處理無限長度文本”

2023/10/6 16:45:29 來源:IT之家 作者:漾仔(實習) 責編:漾仔

IT之家 10 月 6 日消息,麻省理工學院聯(lián)合 Meta AI 的研究人員日前開發(fā)了一款名為 StreamingLLM 的框架,為大語言模型可能遇到的 RAM 與泛化問題提出了一系列解決方案,號稱能夠“讓語言模型處理無限長度的文本內(nèi)容”。

▲ 圖源 GitHub

StreamingLLM 的研究重點,是想解決實現(xiàn)流式語言模型(Efficient Streaming Language Models,ESLM)的障礙,特別是“長時間互動的多輪對話場景”中可能出現(xiàn)的問題。

研究人員指出,這種流式語言模型主要存在兩大挑戰(zhàn):

第一個挑戰(zhàn):在解碼階段,獲取 token 的鍵(Key)值(Value)狀態(tài)會消耗大量的 RAM。

第二個挑戰(zhàn):目前流行的大語言模型,難以泛化適用“超過訓練序列長度”的長文本。

IT之家注意到,過去有許多研究試圖解決上述挑戰(zhàn),像是“擴展注意力窗口”,讓語言模型能夠處理超出預訓練序列長度的長文本;或是建立一個固定大小的活動窗口,只關(guān)注最近 token 的鍵值狀態(tài),確保 RAM 使用率和解碼速度保持穩(wěn)定,但若遇到“序列長度超過緩存大小”時,這個策略就會失效。

而當前流式語言模型最大的挑戰(zhàn)是“如何不消耗過多 RAM 且不損害模型性能的前提下,處理長文本輸入”。

StreamingLLM 對此采取的策略是“運用注意力下沉現(xiàn)象”,研究人員觀察到,在自回歸語言模型中,無論特定 token 和語言模型本身的相關(guān)性如何,如果對代 token 分配了大量的注意力。這些獲得高度注意力的 token,就會表現(xiàn)出注意力下沉的現(xiàn)象,即便這些 token 在語義上不重要,但他們?nèi)匀猾@得模型強烈關(guān)注(即給予特定 token 內(nèi)容大量注意力,從而獲得模型大部分的關(guān)注,而這些特定 token 內(nèi)容包含“下沉 token 的鍵值”,從而確保無論輸入序列有多長,模型的注意力計算都能維持穩(wěn)定)。

▲ 圖源 GitHub

StreamingLLM 的重要貢獻,在于其提出一個簡單且高效的解決方案,使語言模型不需微調(diào)就可以處理無限長度的文本。從而解決當前語言模型在流式應用的困境。雖然未來流式語言模型勢在必行,但由于 RAM 效率的限制,以及模型在處理長序列的性能問題,相關(guān)模型發(fā)展仍受到挑戰(zhàn)。

經(jīng)研究團隊證實,StreamingLLM 能夠讓 Llama 2、MPT、Falcon 和 Pythia 可靠地處理高達 400 萬 token 的文本,能夠為流式語言模型提供更多部署方面的可能性。

參考

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:StreamingLLM,大語言模型AI

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知