近日,我國科研團隊在機器人算法領(lǐng)域取得重大突破,提出全球首個“力位混合控制算法的統(tǒng)一理論”。該算法無需依賴力傳感器,就能讓機器人同時學(xué)習(xí)位置與力的控制,相關(guān)任務(wù)成功率較只使用位置控制的策略提高了約39.5%。更值得關(guān)注的是,其相關(guān)論文目前已斬獲國際機器人學(xué)習(xí)大會杰出論文獎,這也是該獎項設(shè)立以來,首次由全中國籍學(xué)者團隊摘得。
在北京通用人工智能研究院的實驗現(xiàn)場,一個搭載了這項新算法的四足機械犬,正有條不紊地執(zhí)行擦白板的訓(xùn)練任務(wù)??蒲腥藛T借著這一實操場景,向記者解釋了力位混合控制算法的核心原理與突出優(yōu)勢。

科研人員介紹,當(dāng)前廣泛應(yīng)用的視覺-語言-動作模型(VLA),在應(yīng)對現(xiàn)實生活中的諸多任務(wù)時,往往會顯得“力不從心”,核心問題就在于這些任務(wù)大多涉及復(fù)雜的接觸場景。比如,擦黑板時,機械臂必須既貼合表面又保持適當(dāng)?shù)膲毫?;開關(guān)柜門,需精準感知內(nèi)部的推拉彈簧結(jié)構(gòu)。機器人需要的不僅是“走到哪里”“手伸到哪里”,還需要理解“該用多大的力”。而在沒有力位混合控制算法前,這些都需要通過力傳感器來解決。
人機協(xié)同更流暢 拓展多元應(yīng)用場景
隨著力位混合控制算法的深度應(yīng)用,機器人不僅可以在沒有力傳感器的條件下,實現(xiàn)位置跟蹤、施力、力跟蹤以及柔順交互等多種操作行為,大幅提升了任務(wù)成功率,更在人機協(xié)同安全性上取得了重要突破,為未來機器人應(yīng)用場景的拓展奠定了基礎(chǔ)。
依托這一創(chuàng)新算法,機器人的能力邊界正在持續(xù)拓寬。它不僅能精準完成軌跡執(zhí)行、施力等基礎(chǔ)操作,更能在感受到外力時,及時對這一外力做出相應(yīng)的反應(yīng)。而這一特性,也恰好提升了人機交互過程中的人員安全性。

除了提升安全性,這一算法還顯著增強了人機協(xié)作的協(xié)調(diào)性。在共同搬箱子、推車等場景中,機器人能與人類保持動作同步。人類加速時它隨之加速,人類停下時它迅速停下,過程中可根據(jù)人的不同運動狀態(tài)進行實時調(diào)整。同時,該算法還具備良好的泛化能力,即便更換不同類型的機器人,依然能夠穩(wěn)定應(yīng)用。