zoukankan      html  css  js  c++  java
  • 《自然》杂志:人工智能学会触觉,爱抚亲昵指日可待

      这样的机器人,您想来几个呢?

      直立行走,将人双手解放出来,既能使用工具劳动生产,又能抒发情感创造艺术,有词为证:

      持手相看泪眼,竟无语凝噎。。。

      那么,日新月异、一骑千里的人工智能,什么时候才能学会爱抚亲昵风花雪月呢?今天上线的一篇Nature论文,麻省理工学院的研究人员朝这个方向迈进了一大步。

      秘密就在上面这个手套,看起来普普通通,只是上面安装了包含548个柔性压阻传感器的阵列,覆盖全手掌,可以感知触摸时的压力大小,范围在30到500mN之间,离散为150个级别,一秒钟可以采样7.3次,并输出相应电信号。也就是说,这个手套有相当不错的时空分辨率和压力精度,戴着它抚摸抓取的时候可以获得大量触觉数据,而造价只要10美金。

      机器视觉其实已经突飞猛进,非常发达,但触觉则起步不久。因为相对摄像机照相机而言,此前人们对触觉感应数据采集并没有太多的需求,没有多少人会异想天开把触觉记忆存储下来。但随着机器人的发展,特别是未来对于服务机器人的需求,光有视觉显然不够了,触觉也变得日益重要。这个手套,就像摄像机一样,能够抓取存储动态的触觉数据。

      但光有手而没有脑,还是没有感觉和情感。于是作者戴上手套反复抓取26个不同的物体,获得13万5千组触觉压力的时空数据,并通过卷积神经网络深度学习方法进行训练,教会了机器触觉。其卷积神经网络构架如下,基于ResNet-18:

      结果显示,只要7组时空数据输入,就可以比较准确辨识不同的物体:

      也可以大致估算物体的重量:

      也就是说,机器已经具备了初步的触觉。下一步的呢,我想应该是通过触觉,进一步让机器学会情感,比如爱抚亲昵时的愉悦,咬牙切齿时的愤怒,和手足无措的焦躁,都可以通过触觉传感和脑神经电极同时取样,深度学习。一个喜怒哀乐溢于言表的机器人,就产生了。

      这样的机器人,您想来几个呢?

      郑州不孕不育医院:http://wapyyk.39.net/zz3/zonghe/1d427.html郑州不孕不育医院哪家好:http://wapyyk.39.net/zz3/zonghe/1d427.html郑州不孕不育医院排名:http://wapyyk.39.net/zz3/zonghe/1d427.html

  • 相关阅读:
    中国的网游,发人深省
    .NET开源Bug管理软件BugTracker.NET使用小记
    开源的学术论文排版软件TeX简介
    在sqlplus中批量执行sql命令
    DotNetBar中ExpandableSplitter使用技巧
    上传一很酷的黑色背景.vssettings文件
    瑞雪兆丰年2008年的第一场雪
    Oracle用Start with...Connect By子句递归查询
    【转载】Making new features with topology tools(ArcInfo and ArcEditor only)
    Geoprocess Execute出错原因?Vb+AE9.2
  • 原文地址:https://www.cnblogs.com/sushine1/p/10950074.html
Copyright © 2011-2022 走看看