機器人革命正在進行中,甚至還在加速。就在最近,出現了第一個英偉達和艾薩克,它的機器人模擬器可以在虛擬宇宙中訓練人工智慧。然後,兩天前,由 Elon Musk 資助的非營利研究中心OpenAI 揭開了該領域最新進展之一的面紗:一種能夠像人類一樣學習的機器人,透過模仿、複製“手勢” 。
虛擬實境學習
顯然,目前這不是一個完全相同地再現人類動作的問題。事實上,與其說是機器人學習執行的動作,不如說是最終的操作本身。
為了促進學習,研究人員使用了虛擬實境。配備 HTC Vive 及其配套控制器的人類在極簡虛擬環境中控制機械手臂(與機器人不同)。他有條不紊地堆疊一系列彩色立方體。對於每個立方體,他移動虛擬手臂,按下按鈕收緊夾具並抓住立方體,然後將其放在另一個立方體上並釋放壓力。
這一系列的動作和動作構成了提交給機器人的虛擬會話。或者更準確地說,是驅動它的兩個人工智慧中的第一個,一個負責視覺的神經網路。正是這種演算法使機器人能夠識別立方體,知道它如何放置在三維空間中,並知道如何與這些立方體互動以成功製作一座小塔。
顯然,他之前遇到過位於虛擬環境中的數以萬計的虛擬立方體影像,這些影像也顯示不同的顏色、紋理或燈光。在機器人人工智慧的訓練階段使用各種各樣的環境,以便它能夠分析來自攝影機(現實)的視訊串流並在其中「找到路」。
模仿和預測...
因為,由於機器人配備了攝像頭,它能夠識別真實的“工作”環境以及放置在其前面的真實立方體。這就是機器人的第二個神經網路的用武之地,簡稱為模仿網路。
由於第二層人工智慧,它能夠知道如何處理真實的立方體,無論它們的起始位置、排列方式如何,並且始終按照演示的順序堆疊它們。
換句話說,即使立方體沒有像人類演示中那樣放置,人工智慧也能夠透過「預測」演示者動畫的手臂會做什麼來進行調整。她並沒有愚蠢地重複一系列動作,而是吸收了立方體之間的差異、進行動作的必要性和順序等。
驚險? OpenAI 研究人員之一 Josh Tobin 解釋說,這種人工智慧確實如此,特別是因為它所做的動作與用於其「訓練」的虛擬手臂的動作並不完全相同。但更不可思議的是,她只需要“看到”這個序列一次,就能模仿她所看到的,因此得名“One shot模仿學習”,一次性模仿學習。
加速機器人學習與行走
這項進步更加重要,因為它不僅限於堆疊立方體。它可以應用於各種其他情況。事實上,這是研究人員希望成功訓練人工智慧的一部分,這些人工智慧可以透過模擬的虛擬資料驅動機器人。這種方法真正呼應了 Nvidia 的 Isaac,旨在減少深度學習所需的時間和成本。
Nvidia 希望讓機器人透過迭代進行自主學習,而 OpenAI 希望找到一種方法將「知識」快速傳輸給機器人,讓機器人知道如何適應不同的環境。「孩子生來就有模仿別人行為的能力。 [...]我們希望我們的機器人也能夠以這種方式學習,”喬許·托賓解釋道。
目前,這項研究顯然僅處於實驗階段。但找到一種更快更好地「訓練」人工智慧的方法可以解決機器人崛起的兩個障礙之一。剩下的就是成功克服與這些智慧機器的某些外形因素相關的某些物理限制。一根稻草! C3PO 絕對不適合明天…