谷歌发布视觉语言行动模型训练机器人扔垃圾
谷歌正在把先进的人工智能(AI)模型植入机器人,给机器人配一个AI大脑。
美东时间7月28日周五,谷歌公司宣布推出应用于机器人领域的新产品——名为Robotics Transformer 2(RT-2)的AI模型。它是一种全新的“视觉-语言-行动”(VLA)模型,可以帮助训练机器人理解扔垃圾等任务。
谷歌介绍,RT-2基于Transformer模型,根据互联网上的文本和图像进行训练,直接指示机器人执行动作。就像用语言模型通过网络文本训练AI学习人类社会的思想和概念一样,RT-2也可以通过网络数据,将相关知识告知机器人,指导机器人的行为。
谷歌举例称,如果我们要让以前的机器人系统做出扔垃圾的动作,就必须明确训练机器人懂得区分何为垃圾,以及捡起垃圾、扔掉它这些动作。而RT-2能将网上的相关知识传给机器人,让机器人无需明确的训练,就懂得垃圾是什么,甚至即便从未受过如何扔垃圾的训练,也知道怎么扔垃圾。
谷歌表示,RT-2具有将信息转化动作的能力,借助它,机器人有望更快适应全新的情形和环境。
因为在6000多次测试RT-2 模型的机器人试验后,谷歌的团队发现,面对训练数据中已有的任务、或者说“见过”的任务,RT-2和它的前代RT-1一样发挥功能,没有差别。而在新颖的、之前从未见过的任务情形中,RT-2的性能几乎提高一倍,成功率达到62%,远超RT-1的32%。
换句话说,通过RT-2,机器人能像人类一样学习更多内容,将学到的概念应用于全新的情境中。
谷歌称,RT-2显示出超越其所接触机器人数据的推广应用能力和语义、视觉理解能力,包括解释新的命令,并通过基本的推理响应用户的指令,比如关于物体的类别和高层次描述的推理。
谷歌的研究还表明,通过结合思维链的推理,RT-2能执行多阶段的语义推理,比如判断哪种物体可以临时用作锤子,哪一类饮料最适合疲劳的人。
有媒体周五称,谷歌目前没有立即计划大规模发布或者出售应用RT-2的机器人,但最终,这些机器人可能用在仓库或者用作家庭助理。