久久99国产精品片久久99蜜桃_久久精品99国产精品蜜桃_久久久亚洲AV成人网站_欧美精品色婷婷五月综合_亚洲精品乱码久久久久久蜜桃图片_夜夜高潮夜夜爽国产伦精品_69无人区乱码一二三四区别_日产一码二码三码区别_大香区一二三四区2021_国产精品爱久久久久久久,日本高清视频成人网www,国产亚洲一二三区精品免费视频观看,久久久精品国产SM调教网站

推廣 熱搜: APP  品牌  深圳APP外包公司  中國  發(fā)展  吉三代  智能  出口  產(chǎn)業(yè)  手機 

人工智能算法教機器人學(xué)走路:從零開始 耗時兩小時

   日期:2019-03-15     來源:慧聰網(wǎng)    作者:胡娜1    瀏覽:215    違規(guī)舉報
 
騰訊云服務(wù)器優(yōu)惠

近日,來自加利福尼亞大學(xué)伯克利分校和谷歌大腦的科學(xué)家們開發(fā)出了一套人工智能系統(tǒng),,它可以讓機器人自己學(xué)會走路。這一成果發(fā)表于預(yù)印本網(wǎng)站arxiv.org上,,論文題為《通過深度強化學(xué)習(xí)來學(xué)習(xí)走路》(learning to walk via deep reinforcement learning),。

在研究人員公布的視頻資料中,四足機器人minitaur試圖走過一個平整的緩坡,。在視頻開頭,,時間顯示為0,這是四足機器人學(xué)習(xí)走路的開始,。此時的四足機器人minitaur如一個蹣跚學(xué)步的嬰兒,,時而搖晃、時而原地踏步,,它嘗試著邁開“腿”前進,,但身體卻“誠實”地留在原地,整個行走過程進展緩慢,。轉(zhuǎn)變發(fā)生在minitaur學(xué)習(xí)走路的第一8分鐘,,這時它已經(jīng)可以持續(xù)性地前進了,但平衡性稍顯不足,。后續(xù)的練習(xí)中,,minitaur的步伐逐漸變得穩(wěn)定且迅速。54分鐘,、72分鐘,、108分鐘,不到2小時的時間,,minitaur基本學(xué)會了快速且平穩(wěn)地走過緩坡,。

這就是四足機器人minitaur學(xué)習(xí)走路的全過程。加利福尼亞大學(xué)伯克利分校和谷歌大腦的科學(xué)家們研發(fā)出的人工智能算法“教”會了這個四足機器人穿越熟悉或陌生的地形,。

在整個訓(xùn)練過程中,,研究人員需要“手動”把走到緩坡盡頭的機器人“請”回緩坡的起點以重新開始新一輪的練習(xí),這一手動復(fù)位的過程稍顯繁瑣,。不過,,從結(jié)果來看,這一耗時2小時的學(xué)步過程實屬高效,,不少網(wǎng)友就此評價稱“ai真是個好老師”,。

在人工智能領(lǐng)域中經(jīng)常提到“強化學(xué)習(xí)”的概念,這是一種使用獎勵或懲罰的驅(qū)動來實現(xiàn)特定目標(biāo)的人工智能方法,,目的是獲得一個策略以指導(dǎo)行動,。比如圍棋博弈中,,這個策略可以根據(jù)盤面形勢指導(dǎo)每一步應(yīng)該在哪里落子。而在四足機器人minitaur學(xué)習(xí)走路的過程中,,這個策略可以根據(jù)地形等要素告訴機器人下一步應(yīng)該怎么走,。

強化學(xué)習(xí)會從一個初始的策略開始。通常,,初始策略不一定很理想,,正如四足機器人minitaur在剛開始學(xué)走路的時候所表現(xiàn)的那樣。不過,。在學(xué)習(xí)的過程中,,作為決策主體的四足機器人minitaur會通過行動和環(huán)境進行交互,不斷獲得反饋,,即回報或者懲罰,,并根據(jù)反饋調(diào)整優(yōu)化策略。

強化學(xué)習(xí)是一種非常強大的學(xué)習(xí)方式,。持續(xù)不斷的強化學(xué)習(xí)甚至能夠獲得比人類更優(yōu)的決策機制。最好的例子就是阿爾法狗,。2016年,,谷歌通過深度學(xué)習(xí)訓(xùn)練的阿爾法狗( alphago)程序以4比1的比分戰(zhàn)勝了曾經(jīng)的圍棋世界冠軍李世石。它的改進版更在2017年戰(zhàn)勝了當(dāng)時世界排名數(shù)一的中國棋手柯潔,,其令世人震驚的博弈能力就是通過強化學(xué)習(xí)訓(xùn)練出來的,。

但強化學(xué)習(xí)也有其局限性。它需要大量數(shù)據(jù),,在某些情況下需要數(shù)萬個樣本才能獲得良好的結(jié)果,。這就需要四足機器人minitaur像阿爾法狗那樣進行多次訓(xùn)練,但過多的訓(xùn)練可能會對四足機器人造成損壞,。

因此,,這項“學(xué)習(xí)走路”的研究選擇了強化學(xué)習(xí)的“升級版”——深度強化學(xué)習(xí)的方法,將深度學(xué)習(xí)的感知能力和強化學(xué)習(xí)的決策能力相結(jié)合,。這種方法可以直接根據(jù)輸入的圖像進行控制,,是一種更接近人類思維方式的人工智能方法。

用研究人員的話說,,為了“使一個系統(tǒng)在沒有模擬訓(xùn)練的情況下學(xué)習(xí)運動技能成為可能”,,他們采用了一種名為“熵rl”強化學(xué)習(xí)框架熵rl可以優(yōu)化學(xué)習(xí)策略,以極大化預(yù)期收益,。在這個框架中,,人工智能代理通過從策略中抽取某些行動并接收獎勵的方式不斷地尋找最佳的行動路徑。

研究人員表示,,“據(jù)我們所知,,本實驗是在現(xiàn)實世界中不經(jīng)過模仿和預(yù)訓(xùn)練而直接學(xué)習(xí)欠驅(qū)動四足運動的第一個深度強化學(xué)習(xí)算法案例。

2018年5月,同個課題組的研究人員曾在arxiv.org上發(fā)表了另一篇關(guān)于四足機器人minitaur的研究論文,。當(dāng)時,,研究人員使用深度強化學(xué)習(xí)的方法使minitaur從零開始學(xué)習(xí)四足運動,并最終實現(xiàn)了小跑和疾馳,。

免責(zé)聲明:
1,、本站所收集的部分公開資料來源于互聯(lián)網(wǎng),轉(zhuǎn)載的目的在于傳遞更多信息及用于網(wǎng)絡(luò)分享,,并不代表本站贊同其觀點和對其真實性負(fù)責(zé),,也不構(gòu)成任何其他建議。
2,、本站部分作品內(nèi)容是由網(wǎng)友自主投稿和發(fā)布,、編輯整理上傳,對此類內(nèi)容本站僅提供交流平臺,,不為其版權(quán)負(fù)責(zé),,更不為其觀點承擔(dān)任何責(zé)任。
3,、因行業(yè)及專業(yè)性有限,,故未能核驗會員發(fā)布內(nèi)容的真實性及有效性,不為其負(fù)責(zé),,如有虛假或違規(guī)內(nèi)容敬請準(zhǔn)備材料圖片發(fā)郵件到info@n#舉報,,本站核實后積極配合刪除。
4,、如果您發(fā)現(xiàn)網(wǎng)站上有侵犯您的知識產(chǎn)權(quán)的作品,,請與我們?nèi)〉寐?lián)系,我們會及時處理或刪除,。
 
 
更多>同類資訊文章
0相關(guān)評論

推薦圖文
推薦資訊文章
點擊排行
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  使用協(xié)議  |  免責(zé)聲明  |  版權(quán)隱私  |  信息發(fā)布規(guī)則  |  網(wǎng)站地圖  |  排名推廣  |  廣告服務(wù)  |  積分換禮  |  網(wǎng)站留言  |  RSS訂閱  |  違規(guī)舉報  |  粵ICP備2020081222號
Powered By DESTOON