日本在线看黄a美女久草|日本动漫亚洲在线一区|日韩人妻无码免费视频|A√有码中文字幕|日韩一级片视频热久久久|一区二区三区四区精品无码在线|亚洲AV成人无码一二三app|亚洲综合图片绯色|91极品人妻在线网站|国产成人精品一区二三区四区五区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
機器人 正文
發(fā)私信給陳淑瑜
發(fā)送

0

DAM-VLA——手臂與夾爪解耦,三星研究院的動態(tài)動作VLA刷新機器人操控SOTA | ICRA 2026

本文作者: 陳淑瑜   2026-04-27 18:33 專題:ICRA 國際機器人與自動化會議
導語:DAM-VLA首次將手臂運動與夾爪操作解耦建模,配合雙尺度加權(quán)機制實現(xiàn)了精準高效的機器人操控。

一、背景 

視覺-語言-動作(VLA)模型正成為機器人智能化的核心架構(gòu),但現(xiàn)有主流方法(如OpenVLA、π0、CogACT)存在一個根本性缺陷:用同一個動作模型統(tǒng)一處理所有類型的動作。這種「一刀切」的設計在面對機器人操控任務時暴露出兩大內(nèi)在矛盾。

從任務特性來看,機器人操控存在兩種本質(zhì)不同的動作類型:手臂大幅度運動(粗動作)需要全局場景理解、路徑約束寬松;夾爪精細操作(精細動作)需要局部精細聚焦、精確抓取姿態(tài)、容錯率極低。這兩種動作在路徑約束、視覺注意力和數(shù)據(jù)分布上有本質(zhì)差異,用同一個模型兼顧「粗定位」與「精細操作」必然產(chǎn)生沖突。

此外,傳統(tǒng)方法缺乏對動作類型的主動感知與路由機制,無法根據(jù)當前操控階段動態(tài)分配合適的推理資源,導致在長時程復雜任務中錯誤率隨步驟增加而快速累積。DAM-VLA(Dynamic Action Model-Based Vision-Language-Action)首次將手臂運動與夾爪操作解耦建模,配合雙尺度加權(quán)機制實現(xiàn)了精準高效的機器人操控。

 DAM-VLA——手臂與夾爪解耦,三星研究院的動態(tài)動作VLA刷新機器人操控SOTA  |  ICRA 2026

 二、核心方法 

DAM-VLA 的核心架構(gòu)包含三大組件,各司其職,協(xié)同實現(xiàn)手臂-夾爪的精準解耦。

模塊一:雙通道視覺編碼與VLM骨架

同時采用DINOv2和SigLIP兩種視覺編碼器,輸出三類特征:普通視覺token用于多模態(tài)融合;DINOv2的class token(全局視覺表征)專門服務手臂運動模型;DINOv2的register token(局部視覺表征)專門服務夾爪操作模型。LLaMA-2的淺層輸出用于動作路由決策,深層輸出用于動作預測。這一設計使「全局感知」與「局部精細」的視覺信息分別流向?qū)膭幼髂P汀?/p>

模塊二:VLM驅(qū)動的動作路由機制

利用VLM的推理能力判斷當前處于哪種操控階段,通過可學習路由權(quán)重w動態(tài)選擇激活手臂運動模型(w<0.5)或夾爪操作模型(w≥0.5)。兩個專用DiT擴散模型并行訓練:手臂運動模型接收全局視覺特征,預測大范圍粗動作;夾爪操作模型接收局部視覺特征,精細預測夾爪動作。動作路由實現(xiàn)了「該全局時全局,該精細時精細」的智能切換。

模塊三:雙尺度動作加權(quán)機制

軌跡級權(quán)重采用非對稱高斯分布(前沿σ=6寬、后沿σ=2窄),在夾爪狀態(tài)轉(zhuǎn)換點前后施加差異化權(quán)重,反映「操控前需要更充分準備」的人類直覺;Action-chunk級權(quán)重采用指數(shù)衰減(γ=0.8),確保近期動作預測權(quán)重更大。兩層加權(quán)機制聯(lián)合作用,顯著提升了操控的時序一致性。

 三、亮點總結(jié) 

創(chuàng)新點一:真實機器人操控平均成功率86.8%

在Franka機器人的pick-and-place任務(80次試驗)中,DAM-VLA平均成功率達86.8%,遠超CogACT的62.9%(提升23.9個百分點)。分布內(nèi)任務成功率91.4%(vs CogACT 65.7%),分布外泛化成功率82.2%(vs CogACT 60.0%),在仿真和真實環(huán)境中全面刷新SOTA。

創(chuàng)新點二:長時程任務最終成功率56%,超越所有基線

在FurnitureBench One-Leg組裝任務(連續(xù)5步操控)中,DAM-VLA最終成功率56%,遠超CogACT的42%和OpenVLA的29%。消融實驗顯示,雙尺度加權(quán)機制是核心貢獻,去掉后性能大幅下降,證明其對長時程動作連貫性的不可替代性。

創(chuàng)新點三:DINOv2 class/register token分工的關鍵發(fā)現(xiàn)

研究首次系統(tǒng)驗證了DINOv2的class token與register token具有天然的全局-局部信息分工——前者包含場景級全局語義,后者包含精細局部幾何信息。將兩類token分別路由給粗動作和精細動作模型,無需額外的特征對齊訓練,即可讓模型的「視覺感知」與「操控階段」高度匹配,為未來VLA模型的視覺編碼設計提供了重要的實證依據(jù)。

──────────────────────────────────────────

上述內(nèi)容包含AI輔助生成,更詳細信息參見兩個鏈接

論文鏈接:https://arxiv.org/abs/2603.00926

解讀來源:https://research.samsung.com/blog/DAM-VLA-A-Dynamic-Action-Model-Based-Vision-Language-Action-Framework-for-Robot-Manipulation


雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

分享:
相關文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說