机器人视觉引导

最近,知乎在举行 『人工智能 · 机器感知』 的圆桌讨论,我受邀成为嘉宾,所以根据自己的了解回答了这个圆桌话题下的几个问题。由于回答内容跟这个公众号的内容有所交叉,(而且感觉知乎不太适合学术讨论),所以我选了几个发布出来:

有没有将深度学习融入机器人领域的尝试?有哪些难点?

amazon picking challenge 2016中识别和运动规划的主流算法是什么?

机器人抓取时怎么定位的?用什么传感器来检测?

KUKA LBR iiwa 机械手是如何实现精密力控制的?

深度学习在路径规划上有哪些应用?

本文是该系列的第三篇,即『机器人抓取时怎么定位的?用什么传感器来检测?』。

简单地说,机器人领域中的视觉包括相机标定物体识别物体位姿估计三个部分;而且,根据识别的目标、方法不同,又可以进一步分为:简单的平面物体检测、有纹理的物体识别、无纹理的物体识别、基于深度学习的方法。而且,在机器人中,视觉有时候并不是完全独立的一块内容,还可以与机器人的任务规划、运动规划等相结合。

由于公式什么的太难排版,我直接放图片啦

1

2

注:本文来自网络,如涉及版权问题,请联系本站删除

Add a Comment

电子邮件地址不会被公开。 必填项已用*标注