科技

波士頓機器狗又更強了!有了Google「具身智慧」 能精準判讀工業儀表

記者鄧天心/綜合報導

Google於4月14日發表全新機器人AI模型「Gemini Robotics-ER 1.6」,讓Boston Dynamics(波士頓動力)著名的四足機器狗Spot具備如同人類般的「具身推理」(Embodied reasoning)能力,能在巡視工廠或倉庫時,精準判讀指針式溫度計與壓力計。

波士頓機器狗結合Google新模型,還能預警工廠傷害。(圖/擷取自Google官方部落格)

這項技術的核心在於Google DeepMind開發的Gemini Robotics-ER 1.6模型。相較於前代模型ER 1.5僅有23%的儀表判讀準確率,新模型在導入「代理視覺」(Agenticvision)功能後,準確率大幅躍升至98%。即便是未開啟代理視覺的基準模式,其準確率仍高達86%,遠優於Gemini 3.0 Flash的67%。

更多科技工作請上科技專區:https://techplus.1111.com.tw/

科技社群討論區:https://pei.com.tw/feed/c/tech-plus

所謂的「代理視覺」結合了視覺推理與程式執行能力,能建立一個「視覺草稿區」(Visual scratchpad)來分析並處理影像,這讓機器人能應對工業現場複雜的視覺環境,例如解讀多個指針、液位高度、容器邊界,甚至是儀器上的細小刻度與文字。

Gemini Robotics-ER 1.6具備強大的「多視角推理」能力,允許機器人系統同時利用多個攝影機串流來理解環境。在測試案例中,新模型能精準識別並點算凌亂影像中的各種工具(如鎚子、剪刀、畫筆等);反觀舊款模型不僅數量點算錯誤,甚至會虛構出影像中不存在的物品。這顯示新模型在解決AI「幻覺」問題上有顯著進展,雖然與人類水平的環境理解仍有距離,但已更趨近真實世界的應用需求。

Google形容這是迄今為止「最安全」的機器人模型,能嚴格遵守物理安全限制。在處理液體或材料時,機器人能做出更安全的決策,並能識別不同場景下的傷害風險,例如精準察覺「幼兒試圖將異物塞入電源插座」的危險。

波士頓動力目前正計畫在其母公司現代汽車集團(Hyundai MotorGroup)等多個工業設施中測試這項技術。傳統機器人多半只能在固定生產線重複特定動作,而Google與波士頓動力的目標,是讓機器人成為能在不受控、複雜的現實環境中自由運作的「自由工作者」。

雖然機器人在複雜環境中運作仍存在潛在風險,但Gemini Robotics-ER 1.6的出現,無疑讓我們距離機器人能完全融入人類生活、精準理解物理世界的未來,又邁進了一大步。

延伸閱讀:

不需再寫落落長指令!Google Gemini導入Nano Banana 看懂你的喜好自動畫圖

資料來源:arstechnica

Loading

本篇文章授權來源:科技島

Author

Write A Comment