• <strike id="fdgpu"><input id="fdgpu"></input></strike>
    <label id="fdgpu"></label>
    <s id="fdgpu"><code id="fdgpu"></code></s>

  • <label id="fdgpu"></label>
  • <span id="fdgpu"><u id="fdgpu"></u></span>

    <s id="fdgpu"><sub id="fdgpu"></sub></s>
    您當前的位置是:  首頁(yè) > 投稿專(zhuān)欄 > 最新來(lái)稿 >
    首頁(yè) > 投稿專(zhuān)欄 > 最新來(lái)稿 > OpenAI的“最先進(jìn)的”系統讓機器人變得像人類(lèi)一樣靈巧

    OpenAI的“最先進(jìn)的”系統讓機器人變得像人類(lèi)一樣靈巧

       作者:大壩科技   來(lái)源:   評論:0  點(diǎn)擊:


     今年6月,由ElonMusk、ReidHoffman和PeterThiel等業(yè)界巨頭支持的非營(yíng)利機構、總部位于舊金山的人工智能研究公司OpenAI宣布,其最新版本的Dota2-playAI——被稱(chēng)為OpenAIFive——成功擊敗了業(yè)余玩家,成為頭條新聞。今天,它又推出了另一款能夠像人類(lèi)一樣靈巧地操縱物體的機器人系統。
     
      OpenAI的研究人員在即將發(fā)表的一篇論文《靈巧的手工操作》中描述了一個(gè)系統,該系統使用了一個(gè)強化模型,在這個(gè)模型中,人工智能通過(guò)嘗試和錯誤來(lái)學(xué)習,指導機器人用最先進(jìn)的精度抓取和操作物體。更讓人印象深刻的是,它是完全數字化的,在一個(gè)計算機模擬中訓練的,沒(méi)有提供任何人類(lèi)演示來(lái)學(xué)習。
     
      研究小組寫(xiě)道:“雖然靈巧地操縱物體對人類(lèi)來(lái)說(shuō)是一項基本的日常任務(wù),但對于自主機器人來(lái)說(shuō),這仍是一項挑戰。”“現代機器人通常是為特定任務(wù)而設計的,在受限的環(huán)境中,它們在很大程度上無(wú)法使用復雜的末端執行器……在這項工作中,我們演示了訓練控制策略的方法,這些策略執行手控操作,并將它們部署在一個(gè)物理機器人上。”
     
      那么他們是怎么做到的呢?
     
      研究人員使用MuJoCo物理引擎模擬一個(gè)真實(shí)的機器人可能在其中工作的物理環(huán)境,并用Unity渲染圖像,訓練計算機視覺(jué)模型識別姿勢。但是這個(gè)方法有它的局限性,團隊寫(xiě)道——這個(gè)模擬僅僅是物理設置的一個(gè)“粗略的近似”,這使得它“不太可能”產(chǎn)生能夠很好地轉化為現實(shí)世界的系統。
     
    悟空電話(huà)機器人
     
      他們的解決方案是隨機化環(huán)境的各個(gè)方面,比如物理(摩擦、重力、關(guān)節極限、物體尺寸等等)和視覺(jué)外觀(guān)(燈光條件、手和物體的姿態(tài)、材料和紋理)。這既降低了過(guò)度擬合的可能性——當神經(jīng)網(wǎng)絡(luò )學(xué)習訓練數據中的噪聲,對其性能產(chǎn)生負面影響時(shí),就會(huì )出現這種現象——也增加了產(chǎn)生一種算法的機會(huì ),該算法可以根據真實(shí)世界的指尖位置和目標姿態(tài)成功地選擇動(dòng)作。
     
      接下來(lái),研究人員用384臺機器(每個(gè)機器有16個(gè)CPU內核)訓練了這個(gè)模型——一個(gè)周期性的神經(jīng)網(wǎng)絡(luò ),讓它們每小時(shí)產(chǎn)生大約兩年的模擬體驗。在8臺GPU電腦上進(jìn)行優(yōu)化后,他們進(jìn)入了下一個(gè)步驟:訓練一個(gè)卷積神經(jīng)網(wǎng)絡(luò ),該神經(jīng)網(wǎng)絡(luò )可以從三個(gè)模擬相機圖像中預測機器人“手”中的物體位置和方向。
    說(shuō)明模型訓練過(guò)程的圖表流程
     
      一旦模型被訓練,它就進(jìn)入了驗證測試。研究人員使用了一只“影子靈巧手”,這是一只機械手,有五個(gè)手指,總共有24個(gè)自由度。與此同時(shí),兩套相機——運動(dòng)捕捉相機和RGB相機——作為系統的眼睛,允許它跟蹤物體的旋轉和方向。(雖然這只“影子靈巧手”有觸覺(jué)傳感器,但研究小組只選擇了它的關(guān)節感應能力,用于控制手指的位置。)
     
      在兩個(gè)測試中的第一個(gè),算法的任務(wù)是重新定位一個(gè)標有字母的塊。團隊選擇了一個(gè)隨機的目標,每次人工智能完成時(shí),他們都選擇了一個(gè)新的目標,直到機器人(1)放棄了塊,(2)花了一分鐘多的時(shí)間來(lái)操作塊,或者(3)達到了50個(gè)成功的旋轉。在第二次測試中,該塊用八角形棱鏡交換。
     
      結果呢?這些模型不僅展示了“前所未有”的表現,而且還自然地發(fā)現了在人類(lèi)身上觀(guān)察到的各種抓握類(lèi)型,如三腳架(用拇指、食指和中指的一種抓握)、棱柱式抓握(用拇指和手指相對的一種抓握)和指尖夾握。他們還學(xué)習了如何旋轉和滑動(dòng)機器人的手指,以及如何利用重力、平移和扭轉力將物體放置到想要的位置。
     
      他們寫(xiě)道:“我們的系統不僅能重新發(fā)現人類(lèi)身上已經(jīng)發(fā)現的,還能讓它們更好地適應自身的局限和能力。”
     
      這并不是說(shuō)這是一個(gè)完美的系統。它沒(méi)有被明確訓練來(lái)處理多個(gè)對象——它很難旋轉一個(gè)球形的第三個(gè)物體。在第二次測試中,仿真與真實(shí)機器人之間存在可測量的性能差異。
     
      但最終,研究結果證明了當代深度學(xué)習算法的潛力,研究人員總結道:“(這些)算法可以應用于解決復雜的現實(shí)世界機器人問(wèn)題,而這些問(wèn)題是現有的非基于學(xué)習的方法無(wú)法解決的。”
    【免責聲明】本文僅代表作者本人觀(guān)點(diǎn),與CTI論壇無(wú)關(guān)。CTI論壇對文中陳述、觀(guān)點(diǎn)判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

    相關(guān)閱讀:

    亚洲精品网站在线观看不卡无广告,国产a不卡片精品免费观看,欧美亚洲一区二区三区在线,国产一区二区三区日韩 巴马| 赣州市| 巨野县| 肃宁县| 青铜峡市| 阳朔县| 湟源县| 西盟| 枣强县| 霍林郭勒市| 乌兰浩特市| 福清市| 星子县| 南安市| 古浪县| 年辖:市辖区| 舒兰市| 福贡县| 晋中市| 海南省| 孙吴县| 武陟县| 航空| 福建省| 桃源县| 鄯善县| 昭苏县| 岫岩| 稷山县| 宁武县| 柏乡县| 龙口市| 玛曲县| 永宁县| 五台县| 武强县| 嘉峪关市| 子长县| 宝兴县| 开平市| 靖西县| http://444 http://444 http://444 http://444 http://444 http://444