當前,具身智能正面臨高質量訓練數據嚴重不足的發展困境。
傳統的動作捕捉與遙操作技術采集數據,雖能實現1:1動作復刻,但成本高昂——單臺數采設備從幾萬到十幾萬不等,且建設大型數采中心投入巨大。 更關鍵的是,傳統方式采集的數據通用性差,單一設備采集的數據通常僅服務于該設備自身,形成“數據孤島”,難以在不同機器人本體間遷移復用。
面對這一困境, 行業頭部企業紛紛轉向互聯網視頻這一潛力數據源 。今年5月,特斯拉工程主管Milan Kovac公開表示, Optimus將告別傳統動作捕捉和遠程操控,轉向直接從互聯網視頻中學習 。互聯網視頻資源豐富、成本低廉,且蘊含著人類與物理世界交互的高維信息。如何將這些非結構化的2D視頻數據,轉化為機器人可理解、可執行的訓練數據,成為技術突破的關鍵。
樞途科技在成立之初就聚焦在視頻提取具身數據技術上,自主研發的SynaData數據管線,實現了從互聯網單目視頻中提取多模態、高精度具身訓練數據的技術突破。SynaData通過視頻數據升維、跨域重定向retargeting等技術,將普通2D視頻轉化為包含軌跡、物體網格等信息的具身訓練數據。相比傳統方式,SynaData成功將綜合采集成本降至行業平均水平的千分之五。以“拿取外賣袋”任務為例,SynaData從人手拿取視頻中提取數據,將模型的抓取成功率提升至88%以上。
機械臂通過大量視頻數據學會抓袋子
SynaData的核心亮點在于服務第三方,打造開放生態。區別于其它企業將視頻數據tokenize并用于自有模型,樞途科技定位“具身數據基礎設施建設者”,從視頻中提取的多模態具身數據已驗證了清華RDT、PI π0、智元UniVLA、EquiBot等主流VLA模型。
目前,SynaData已完成全管線技術驗證,處理了數千小時多場景視頻,產出涵蓋抓取、放置、精細組裝等逾百種任務場景的數據集。
SynaData數據提取
未來,樞途科技將與行業伙伴持續共建開放數據生態。樞途計劃于2025年第四季度發布首個基于真實場景視頻的多模態具身開源數據集,推動行業數據標準建設。公司還計劃將適配的機器人本體類型擴展至100種以上,覆蓋人形機器人、靈巧手、協作機械臂等各類結構。
樞途科技CTO林嘯表示:“數據決定上限,模型逼近上限。SynaData讓機器人得以利用海量視頻數據,通過‘觀看’人類視頻學習技能,真正突破具身模型能力邊界。” 隨著SynaData系統的不斷完善,具身智能領域將迎來低成本、高質量、海量數據的新時代。
樞途科技將以視頻數采技術加速具身模型發展,驅動更多機器人在復雜非標場景的規模化落地,Make Robots Work。
本文鏈接:樞途科技獲數千萬元融資,領跑視頻具身身數采藍海http://www.sq15.cn/show-3-156819-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。