侵权投诉

搜索
更多>> 热门搜索:
订阅
纠错
加入自媒体
发文

CoRo实验室:机器人智能触觉技术研究

2016-07-22 09:15
老猫
关注

  先前的研究都只关注视觉,而不是触觉智能

  到目前位置,大部分关于机器人抓握的研究都在基于机器人获得的视觉反馈尝试建立人工智能。其中一种方法就是通过数据库进行图像匹配,这种方法被用于布朗大学人类与机器人实验室(Humans to Robots Lab)的Million Objects Challenge项目中。机器人使用摄像头来感知目标物体,同时监测自身的动作,以此来尝试抓取物体。在这一过程中,机器人会将实时的视觉信息与储存在数据库中的3D扫描图像进行比对。一旦找到匹配的图像信息,机器人就能找出对应当前情况的抓取算法。

  布朗大学的研究方法要旨在于搜集各种不同物体的视觉信息,但研究人员不可能建立一个关于机器人可能遇到的所有物体的庞大数据库。而且,这种通过数据库匹配的方法没有考虑环境的限制,因此机器人无法根据环境的变化采取相应地抓取策略。

  还有的研究人员借助机器学习来改进机器人抓握技术。这些技术可以允许机器人从过去的经验中学习,最终机器人可以自己找出抓取物体的最佳方法。而且与数据库匹配的方法不同,机器学习只需要预设极少的先验知识。这种情况下机器人就不需要借助一个预制好的图像数据库——它们只需要足够的练习。

  正如今年IEEE Spectrum(《科技纵览》杂志)报导过的,Google最近进行了一次机器抓握技术的实验,将视觉系统与机器学习相结合。在过去,研究者试图通过教会机器人运用人类认为最好的抓取方法来改进机器人的抓握能力。而Google研究的最大突破在于展示了机器人的自学能力——利用深度卷积神经网络(deep convolutional neural network)、视觉系统以及大量的数据(通过80万次抓取物体的尝试)——来让机器人从过去的经验中学习和改进它们的抓取能力。

  实验的结果似乎带来了很大希望:由于机器人的行为反应不是预设好的,可以说它们的进步是“在学习中自然出现的”(其中一位研究人员如是说)。但视觉所能反馈给机器人关于抓取的信息也是很有限的,Google可能已经到了这一限制的边缘。

  只关注视觉带来的一些问题

  有三个主要的理由能够说明为什么Google和其他人遇到的难题只依靠视觉是难以克服的。首先,视觉本身就有许许多多技术上的限制。即使最高水平的视觉系统,在某些光的条件下(例如半透明、高反射以及低对比度的颜色)或者物体尺寸太薄的情况下,也会发生物体感知的困难。

  视觉本身就不适合用于解决这一问题:抓握任务是关于接触与力学的,在视觉上很难被监控。视觉最多可以告诉机器人什么样的手指姿势最有可能抓取成功,但机器人最终还是需要触觉上的信息。

<上一页  1  2  3  4  5  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号