11月4日,,麻省理工學院展示了一種全新的機器人訓練模型。該模型不再依賴于標準數(shù)據集,,而是模仿大型語言模型的大規(guī)模信息處理方式,,為機器人學習新技能提供了新的途徑。
在傳統(tǒng)模仿學習中,,機器人通過跟隨執(zhí)行任務的人類或其他代理進行學習,。然而,這種方法在面對照明變化,、不同環(huán)境或新障礙等小挑戰(zhàn)時,,常常因數(shù)據不足而難以適應。為了解決這個問題,,麻省理工學院的研究團隊借鑒了GPT-4等大型語言模型的數(shù)據處理方法,,探索了一種新的解決方案,。
新論文的主要作者王立睿指出,在語言領域,,數(shù)據以句子的形式存在,,但在機器人領域,數(shù)據具有高度的異質性,。如果想以類似語言模型的方式進行預訓練,,就需要構建一種全新的架構。
為此,,研究團隊引入了異構預訓練變壓器(HPT)這一創(chuàng)新架構,。HPT能夠整合來自不同傳感器和環(huán)境的多樣信息,并利用變壓器技術將這些數(shù)據匯總到訓練模型中,。值得注意的是,,變壓器的規(guī)模越大,其輸出效果也越好,。
使用該模型時,,用戶只需輸入機器人的設計、配置以及期望完成的任務,,系統(tǒng)便能根據這些信息為機器人提供所需的技能,。這一創(chuàng)新不僅提高了機器人學習的效率和靈活性,也為實現(xiàn)更廣泛,、更復雜的機器人應用奠定了堅實基礎,。
卡內基梅隆大學副教授戴維·赫爾德評價這項研究時表示,他們的夢想是擁有一個通用的機器人大腦,,用戶可以直接下載并使用它,,而無需進行任何額外訓練。雖然目前還處于這一愿景的早期階段,,但研究人員將持續(xù)努力,,希望借助規(guī)模化的優(yōu)勢,,在機器人策略方面取得像大型語言模型那樣的突破性進展。