在线观看日韩三级视频,国产久久精品在线播放,精品人妻伦一二三区久久简爱,久久亚洲精品一区二区,日韩人妻一区二区av,欧美黑人又粗又大高潮喷水,国产91精品在线播放,国产欧美日韩一区二区三视频,亚洲一区二区伦理在线

設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

Meta SAM 2 登場:首個能在圖片和視頻中實時分割對象的統(tǒng)一開源 AI 模型

2024/7/30 9:58:28 來源:IT之家 作者:故淵 責編:故淵
感謝IT之家網(wǎng)友 烏蠅哥的左手 的線索投遞!

IT之家 7 月 30 日消息,Meta 公司發(fā)布 Meta Segment Anything Model 2(SAM2),SAM 2 能分割任何目標,能在一個視頻中實時追蹤所有鏡頭 —— 解鎖新的視頻編輯能力并在混合現(xiàn)實中提供新的體驗。

Meta 公司今天發(fā)布新聞稿,介紹了全新的 Meta Segment Anything Model 2(SAM 2)模型,先支持分割視頻和圖像中的對象。

開源

Meta 公司宣布將以 Apache 2.0 許可發(fā)布 SAM 2,因此任何人都可以使用它來構(gòu)建自己的體驗。

Meta 還將以 CC BY 4.0 許可共享用于構(gòu)建 SAM 2 的數(shù)據(jù)集 SA-V,并發(fā)布基于網(wǎng)絡的演示體驗,所有人都可以在其中試用 Meta 的模型版本。

對象分割

對象分割(Object segmentation)是指識別圖像中與感興趣物體相對應的像素,是計算機視覺領(lǐng)域的一項基本任務。

Meta 公司去年發(fā)布了 SAM 1 基礎(chǔ)模型,已經(jīng)可以在圖像上分割對象。而最新發(fā)布的 SAM 2 可用于圖片和視頻,并可以實現(xiàn)實時、可提示的對象分割。

SAM 2 在圖像分割準確性方面超越了以往的能力,在視頻分割性能方面優(yōu)于現(xiàn)有成果,同時所需的交互時間減少了三倍。

SAM 2 還可以分割任何視頻或圖像中的任何對象(通常稱為零鏡頭泛化),這意味著它可以應用于以前未見過的視覺內(nèi)容,而無需進行自定義調(diào)整。

IT之家附上參考地址

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:Meta,AI

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知