在线观看日韩三级视频,国产久久精品在线播放,精品人妻伦一二三区久久简爱,久久亚洲精品一区二区,日韩人妻一区二区av,欧美黑人又粗又大高潮喷水,国产91精品在线播放,国产欧美日韩一区二区三视频,亚洲一区二区伦理在线

設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

全球機器人視觸融合挑戰(zhàn)賽揭榜,中國團隊包攬三金

新智元 2025/5/19 13:34:49 責編:汪淼

今天,機器人和自動化領域的全球頂級會議 ICRA 2025 在亞特蘭大正式拉開帷幕。

不久前,機器人領域的頂級賽事 —— ManiSkill-ViTac 2025 也公布了獲獎團隊名單

5 月 23 日,ManiSkill-ViTac 2025 的成果將在 ICRA 2025 第六屆 ViTac 國際研討會中集中匯報。

據(jù)主辦方統(tǒng)計,本屆賽事吸引了來自清華、北大、港大、新加坡國立大學、穆罕默德?本?扎耶德人工智能大學等 42 支全球頂尖團隊同臺競技。

最終包攬三個賽道金牌的贏家,是來自國內(nèi)的兩家具身初創(chuàng)公司。

其中,拿下「純觸覺操控」和「觸覺傳感器設計」兩個賽道金牌的是原力靈機 Dexmal。

這家剛成立不久就獲得 2 億天使輪融資的黑馬企業(yè),核心團隊出身于老牌 AI 企業(yè)曠視科技,并且具有超過 10 年的 AI 原生產(chǎn)品規(guī)模落地經(jīng)驗。

拿下「視觸融合操控」賽道的冠軍它石智航,幾乎與原力靈機同時宣布了天使輪融資,憑借 1.2 億美元的融資額創(chuàng)造了中國具身智能行業(yè)最大天使輪新紀錄。

三大賽道,三塊金牌,不僅讓大家感受到了具身智能在細分領域有多「卷」,更是體現(xiàn)了中國在機器人操控領域的國際領先實力。

機器人界「奧賽」,視觸覺融合大挑戰(zhàn)

在人工智能的版圖中,具身智能與 AI 1.0 時代和如今炙手可熱的 LLM,有著本質(zhì)的區(qū)別。

AI 1.0 聚焦于模式識別,大模型擅長處理文本等多元信息。

具身智能則直面物理世界,追求讓機器人像人類一樣感知、思考并與環(huán)境交互。

這種「身體與智能」的結(jié)合,不僅需要算法的突破,還要求硬件設計、場景適配和多模態(tài)感知的深度協(xié)同。

另外從衡量標準來說,不同于 AI 1.0 時代產(chǎn)學研在 CVPR 的華山論劍;也不同于大模型行業(yè)在 OpenCompass,Eval 等 Benchmark 上的百家爭鳴。

具身領域的基準相對稀缺分散,且挑戰(zhàn)重重。

它不僅需要模擬復雜的物理交互、開發(fā)高精度硬件,甚至在真實場景中驗證算法的魯棒性,這使得相關賽事的門檻極高,玩家數(shù)量也更少。

隨著具身技術日趨成熟,競爭越來越激烈,其細分領域的挑戰(zhàn)賽熱度也在升溫。

當前,公眾往往更關注機器人的運動性能,比如靈活的機械臂或靈巧的步伐,但在實際應用中,視覺觸覺等多模態(tài)感知的融合對機器人發(fā)展至關重要。

為了促進機器人獲得像人類一樣的操控技能,ManiSkill 基準測試應運而生。

自 2022 年首屆于 ICLR 舉辦以來,ManiSkill 挑戰(zhàn)賽已成為具身智能領域的「金字招牌」。并在 2024 年引入「視觸覺」融合專題(Vitac),以彌補傳統(tǒng)視覺主導方案的不足。

運動能力可以讓機器人「動起來」,比如近來比較火的擎天柱熱舞視頻,而多模態(tài)感知則賦予其「看懂世界,摸清環(huán)境」的智慧。

尤其是,在需要精細操作的場景中,視覺觸覺協(xié)同作用決定了機器人的使用價值。

然而,在許多現(xiàn)實場景中,它們的表現(xiàn)仍不如意。

比如,在抓取不規(guī)則物體、執(zhí)行毫米級精度的操作,或處理柔性材料時,機器人常常因感知不足而失敗。

英偉達高級科學家 Jim Fan 在紅杉的閉門演講中,將其稱之為「物理圖靈測試」。演講過程中,他展示了一個機器人提供 VIP 早餐服務的翻車視頻,引全場爆笑。

一個再普通不過的生活場景,機器人為啥就搞得一團糟呢?

這是因為,當前機器人領域的研究主要依賴視覺感知,通過攝像頭捕捉環(huán)境信息,并進行決策。

但視覺主導的方案,在接觸密集場景中存在著明顯的局限性,比如遮擋、光線變化、物體透明度,都會干擾視覺數(shù)據(jù)。

與此同時,那些缺乏觸覺反饋的機器人,更是難以感知接觸力、表面紋理或物體剛性等關鍵信息。

這導致了,機器人在醫(yī)療手術、精密裝配、復雜物流分揀等場景中,難以達到人類水平的操作能力。

ManiSkill-ViTac 視觸覺融合挑戰(zhàn)賽的誕生,恰恰填補了這一技術空白。

主頁地址:https://ai-workshops.github.io/maniskill-vitac-challenge-2025/

它由清華、UCSD、倫敦國王學院等頂尖機構(gòu)聯(lián)合主辦,聚焦于視觸覺融合技術,以拓展機器人在復雜操作任務中的能力邊界。

與歷屆 ManiSkill 賽事不同,ManiSkill-ViTac 提供了觸覺物理仿真平臺并搭建了現(xiàn)實世界的測試平臺,是全球范圍首個結(jié)合視覺與觸覺的公開賽事。

ManiSkill-ViTac 2025 的意義遠超學術競賽,它為機器人行業(yè)提供了從實驗室到現(xiàn)實應用的橋梁。

它將推動觸覺 - 視覺融合算法的進步,加速改進觸覺傳感器設計,為豐富接觸的操作任務建立基準。

在 42 支全球參賽團隊中,中國團隊的表現(xiàn)尤為亮眼。

以原力靈機為代表,不僅在算法研發(fā)上取得了突破,還通過「算法 + 硬件 + 場景」的系統(tǒng)創(chuàng)新,推動技術快速落地。

中國隊奪三金,憑什么?

在純觸覺操作賽道(Track1)中,原力靈機 Dexmal 團隊直面機器人操控的終極難題:

如何在完全沒有視覺輔助的條件下,僅憑觸覺完成高精度的操作?

根據(jù)介紹,Track1 要求機器人通過觸覺傳感器,完成將軸體插入毫米級孔洞的復雜任務。

這不僅需要其精準解析軸體輪廓的種種特征,還要依據(jù)接觸反饋構(gòu)建起準確的空間坐標系。

傳統(tǒng)方案大多依賴 RL,但受限于觸覺數(shù)據(jù)的低維度和高噪聲,成功率僅為 14.81%,且因接觸力失衡,傳感器常因過度受力而損壞。

為此,Dexmal 團隊提出了創(chuàng)新的「雙范式學習框架」,將專家知識與智能學習巧妙結(jié)合。

首先,他們利用專家示范數(shù)據(jù),對策略網(wǎng)絡進行預訓練,讓機器人快速掌握空間探索的基本能力。

隨后,團隊引入模仿學習生成動態(tài)獎勵函數(shù),為 RL 的每一步微觀操作提供精準、實時的反饋引導。

這種分層遞進學習的策略,就像為機器人裝上了雙「無形的眼睛」,讓其在無視覺輔助這一苛刻條件下,依然能夠精準定位孔洞位置。

這一方案的真實效果,令人震撼。

在仿真測試中,Dexmal 混合算法將成功率提升了 2-3 倍,遠超單一強化學習的方案。

更重要的是,在真實機器人驗證環(huán)節(jié),Dexmal 方案憑借大幅領先的比分,充分彰顯了其在純觸覺賽道領域的強大競爭力。

而在觸覺傳感器設計賽道(Track3)中,原力靈機 Dexmal 團隊再次展現(xiàn)了技術前瞻性。

觸覺傳感器,作為機器人「觸覺」的核心硬件,長期面臨成本高、制造復雜、性能不穩(wěn)定的難題,行業(yè)仍處于探索初期。

Dexmal 團隊以經(jīng)濟性與高效性為核心目標,從傳感器結(jié)構(gòu)到數(shù)據(jù)處理進行了全鏈條優(yōu)化。

首先,他們重新設計了傳感器的幾何形狀,使其能自適應非均勻應力分布,輕松應對不同任務需求。

其次,團隊優(yōu)化了四面體網(wǎng)格,力求在計算精度與實時性之間達成平衡。

最后,他們優(yōu)化了標記點的分布,兼顧空間分辨率與信號魯棒性。

為了驗證設計效果,團隊對傳感器的空間分辨率、計算效率和算法協(xié)同性進行了全面測試。

結(jié)果顯示,新設計不僅讓算法性能顯著提升,還有效降低了成本。

這種「高性價比」的方案,讓 Dexmal 團隊在比賽中一舉奪魁,或許將為觸覺傳感器的規(guī)模化應用打開了大門。

通往 AGI,必須要翻越具身的高山

與語音、文本等模態(tài)不同的是,觸覺信息就是物理世界的「原生數(shù)據(jù)」。它不僅對具身智能至關重要,更是實現(xiàn) AGI 的關鍵一環(huán)。

觸覺,可以讓機器人能夠感知物理紋理、力反饋、材料特性等,提供視覺無法捕捉的信息。它為機器人與現(xiàn)實世界的深度交互提供了可能。另一方面,視覺則可以為全局環(huán)境的理解提供支持。

兩者的融合,不僅可以提升機器人對環(huán)境的感知魯棒性,還為跨場景、跨任務的泛化能力奠定了基礎。

作為賽事主辦方代表,清華大學助理研究員陳睿博士表示:

多感知模態(tài)融合在機器人領域有非常大的應用價值。我們舉辦挑戰(zhàn)賽的初衷是希望為業(yè)界提供一個平臺,共同推進視觸覺融合技術的進步。

未來,我們還計劃擴展任務復雜性,比如納入語言模態(tài),推進視覺-觸覺-語言多模態(tài)大模型發(fā)展。也希望能夠有越來越多的優(yōu)秀團隊能夠參與進來。

相比如火如荼的 LLM,機器人直接作用于物理世界,是 AGI 必須要翻越的高山,也是解決未來生產(chǎn)力難題的核心。

只有將觸覺視覺無縫融合,才能提升機器人精細操作的能力。

前段時間,老黃在接受采訪時表示,人形機器人將是一個價值 50 萬億美元的產(chǎn)業(yè)。當前,全球機器人市場正處于爆發(fā)前夜。

未來,它將為工業(yè)、醫(yī)療、物流等領域的智能化轉(zhuǎn)型,注入全新動能。就是說,這一領域技術突破和落地,將為全世界帶去的價值不可估量。

中國團隊在賽事中的卓越表現(xiàn),彰顯了其在全球 AI 和機器人領域的引領地位。

奪得雙金的 Dexmal 團隊表示,團隊日前還參加了 CVPR 2025 協(xié)作智能 Workshop 核心賽事之一 ——RoboTwin,并在第一輪仿真平臺賽中斬獲并列第一。

目前,他們正全力備戰(zhàn)第二輪比賽,結(jié)果將于 6 月底公布。

這些連連戰(zhàn)績,無疑為中國在具身智能領域的全球影響力,再添濃墨重彩的一筆。

ManiSkill-ViTac 2025 的正式落幕,不僅是一場技術的巔峰對決,更是中國具身智能崛起的里程碑。

原力靈機和它石智航的耀眼表現(xiàn),展現(xiàn)了中國團隊在算法創(chuàng)新、硬件突破、場景落地的全棧實力。

他們用三枚金牌向世界證明:中國不僅是 AI 賽道上的追趕者,更是引領者。

參考資料:

  • https://ai-workshops.github.io/maniskill-vitac-challenge-2025/#Award

本文來自微信公眾號:新智元(ID:AI_era),作者:桃子、好困,原標題《三金,又是中國隊!全球機器人視觸融合挑戰(zhàn)賽揭榜》

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關文章

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知