CMU的计算机团队通过让其机器人通过触觉反馈和试错来学习,力求打造触觉、视觉结合处理和自主学习的新一代智能工业机器人。
我们都知道,在人工智能领域,要想实现对目标的识别、跟踪和测量,其中一项非常核心的技术就是计算机视觉。目前,国内外有许多家公司和实验室就在结合深度学习和计算机视觉来进行深度研究与改进,提高机器动作的精度和强度。但是也正如行业内大家所熟知的,无法结合机器的触觉是机器人发展的一大制约。
据悉,近日卡内基梅隆大学(CMU)的计算机团队正在训练Baxter机器人进行抓握训练,让其通过触觉反馈和试错来学习,研究出触觉和视觉相结合的新一代智能工业机器人。
该系统使用类似于Kinect的3D摄像机。 Baxter收集的视觉和触觉信息被发送到一个深层神经网络,它与ImageNet中的图像数据交叉输入。加上触摸过程的数据训练,机器人的识别精度比仅使用图像数据训练的机器人提高了10%。
实验室助理Dhiraj Gandhi为大家演示了机器人在接触熟悉与不熟悉的对象时作出的动作与反应:当机器人识别出物体时,它牢牢抓住放入盒中,同时电脑上显示的是微笑的表情;如果对象不熟悉,机器人会挪开手臂,并且会出现扭曲困惑的表情。
传统的计算机视觉学习形式,主要是通过输入数据,经过“监督”学习训练网络来识别对象,不同的是,CMU的机器人可以自己教自己。对此,Gandhi解释说:“目前计算机视觉的核心就是你用大量目标特征数据来训练,而图像处理任务与机器识别这一动作任务之间是相互独立的。现在我们想要的就是当机器人与目标对象交互时获取的变化数据。通过这些数据,训练机器去学习可以辅助完成视觉任务的功能。”
显然,研究还处于初期阶段,但具有一定的前景。未来,触摸和视觉学习的结合可用于分类机器人,如ZenRobotics开发的机器人,可将垃圾与回收物品分开。当然,该技术也可以应用到人工智能领域的其他应用方面。