• 《自然》杂志:人工智能学会触觉,爱抚亲昵指日可待


      这样的机器人,您想来几个呢?

      直立行走,将人双手解放出来,既能使用工具劳动生产,又能抒发情感创造艺术,有词为证:

      持手相看泪眼,竟无语凝噎。。。

      那么,日新月异、一骑千里的人工智能,什么时候才能学会爱抚亲昵风花雪月呢?今天上线的一篇Nature论文,麻省理工学院的研究人员朝这个方向迈进了一大步。

      秘密就在上面这个手套,看起来普普通通,只是上面安装了包含548个柔性压阻传感器的阵列,覆盖全手掌,可以感知触摸时的压力大小,范围在30到500mN之间,离散为150个级别,一秒钟可以采样7.3次,并输出相应电信号。也就是说,这个手套有相当不错的时空分辨率和压力精度,戴着它抚摸抓取的时候可以获得大量触觉数据,而造价只要10美金。

      机器视觉其实已经突飞猛进,非常发达,但触觉则起步不久。因为相对摄像机照相机而言,此前人们对触觉感应数据采集并没有太多的需求,没有多少人会异想天开把触觉记忆存储下来。但随着机器人的发展,特别是未来对于服务机器人的需求,光有视觉显然不够了,触觉也变得日益重要。这个手套,就像摄像机一样,能够抓取存储动态的触觉数据。

      但光有手而没有脑,还是没有感觉和情感。于是作者戴上手套反复抓取26个不同的物体,获得13万5千组触觉压力的时空数据,并通过卷积神经网络深度学习方法进行训练,教会了机器触觉。其卷积神经网络构架如下,基于ResNet-18:

      结果显示,只要7组时空数据输入,就可以比较准确辨识不同的物体:

      也可以大致估算物体的重量:

      也就是说,机器已经具备了初步的触觉。下一步的呢,我想应该是通过触觉,进一步让机器学会情感,比如爱抚亲昵时的愉悦,咬牙切齿时的愤怒,和手足无措的焦躁,都可以通过触觉传感和脑神经电极同时取样,深度学习。一个喜怒哀乐溢于言表的机器人,就产生了。

      这样的机器人,您想来几个呢?

      郑州不孕不育医院:http://wapyyk.39.net/zz3/zonghe/1d427.html郑州不孕不育医院哪家好:http://wapyyk.39.net/zz3/zonghe/1d427.html郑州不孕不育医院排名:http://wapyyk.39.net/zz3/zonghe/1d427.html

  • 相关阅读:
    Difference between 2>&-, 2>/dev/null, |&, &>/dev/null and >/dev/null 2>&1
    (OK)(OK) docker-(centos-quagga-ospf-mdr)--NS3--MANET
    How to Interactively Create a Docker Container
    (OK)(www.nrl.navy.mil) OSPF MANET Designated Routers (OSPF-MDR) Implementation
    docker-batman
    (OK)(OK) NS3
    quagga-mtr——Multi-Topology Routing support for quagga routing suite
    (OK)(OK) seem-tools-CLI-manual.sh
    (OK)(OK) seem-tools-CLI-semi-auto.sh
    (OK)(OK) manet-seem-template.cc
  • 原文地址:https://www.cnblogs.com/sushine1/p/10950074.html
Copyright © 2020-2023  润新知