首页 > 科技 >

MIT新AI系统成精了,扫一眼就能知道物体的“触觉”!

2019-06-17 21:12:34 暂无 阅读:1126 评论:0

智器材

编 | 赵佳蕊

导语:美国麻省理工学院较量机科学和人工智能实验室研究人员设计了一个能够把触觉旌旗转化为视觉旌旗的的人工智能系统,也能够凭据视觉片段展望触觉。

智器材6月17日新闻,近日麻省理工学院(MIT)较量机科学和人工智能实验室(CSAIL)的研究人员研发出了一个新的人工智能系统,这小我工智能系统可以经由触觉信息生成视觉信息,也能够凭据视觉片段展望触觉。

相关论文将鄙人周的较量机视觉和模式识别会议大将揭橥一篇新的论文,这篇论文由CSAIL博士生Yun Zhu Li、MIT传授Russ Tedrake、Antonio Torralba和MIT博士后Jun Yan Zhu配合创作。 一、这个AI能够将视觉信息和触觉信息互相进行转换

该小组的系统使用了GANs(生成匹敌收集)把触觉数据拼凑出视觉图像。个中GANs的神经系统被应用在两个部门,包罗发生样本的发生器和可以区分发生样本和真实样本的分辨器的两部门神经收集。

样本的获取起原于一个名为visgel的数据集,visgel拥有跨越300万个视觉/触觉数据对,个中包罗12000个视频剪辑,剪辑中包含了近200个物体(如对象、织物和家用产物)。

这一人工智能系统首先将识别机械人所接触物体区域的外形和材质,并在参考的数据集中进行比对,最一生成所接触部位的图像信息。

例如:若是给出鞋子上完整的触觉数据,这个模型就能够确定鞋子上最有或者被触摸的位置。

MIT新AI系统成精了,扫一眼就能知道物体的“触觉”!

▲运行流程

数据集中参考照片有助于对情况的具体信息进行编码,从而使机械进修模型可以自我改善。在这个研究中,他们在库卡机械人手臂上安装了一个触觉式凝胶视觉传感器,这个传感器由麻省理工学院的另一个小组设计,能够将当前的图像与参考图像进行对照,以确定触摸的位置和比例。 二、这个系统能够匡助机械人进行自我进修

“经由视察这个场景,我们的模型能够想象到触摸到一个平展的外观或厉害的边缘的感受。”CSAIL博士生 Yun Zhu Li说。

“在阴郁中进行接触的时候,仅从触觉上,我们的人工智能模型就能够展望与情况的交互感化,把视觉和触觉这两种感受连系在一路就能够强化机械人的能力,削减我们在处理和抓取物体的义务中或者需要的数据。”

MIT新AI系统成精了,扫一眼就能知道物体的“触觉”!

▲模型从触觉生成视觉的过程

研究人员注重到,当前的数据集只有在受控情况中交互的例子,然则个中一些细节,好比物体的颜色和柔软度,仍然难以被系统揣摩出来。

不外,他们说,他们的方式能够在生产情况中为集成人类机械人无缝跟尾地打下根蒂,尤其是在贫乏视觉数据的义务上。好比:当灯熄灭或工人必需盲目地接触容器时。

对于这一项研究,加州大学伯克利分校的博士后研究员安德鲁·欧文斯说:“在视觉和触摸旌旗之间进行转换方面,这是第一种非常令人信服的方式。像如许的方式对机械人进修很有效。”

他还透露:有些问题对于机械人来说是很难的,好比:你能够问这个机械人“若是我选择经由握住杯子把手提起这个杯子,我的握法会有多好?这是一个非常具有挑战性的问题,因为旌旗非常分歧,这个模型已经可以证实它是非常有效的。”

相关文章