这里是普通文章模块栏目内容页
除了看和听之外,AI能拥有触觉吗?

除了看和听之外,AI能拥有触觉吗?

  AI近几年的快速发展离不开深度学习方法的深入研究,而深度学习提升AI能力的最显著表现,目前来看主要集中在两个方面:图像识别和语音识别。

  通过对图像的语义分割,图像识别技术已经应用得特别广泛。在手机摄影、拍照购物、刷脸支付等各种领域,图像识别给我们带来了极大的便利。同时,基于语音识别的各种语音助手比如智能音箱等,也在悄然描画智能家居的未来。可以说,单单是在视觉和听觉这两个方面的技术突破,AI就已经给世界带来了巨大改变。

  但是,人有五感,除了视觉和听觉之外,还有非常重要的触觉。曾经有个人做实验,看看蒙上眼睛堵上耳朵再绑手脚这人会怎样,结果差点儿整出精神病。

  那么具体到AI这件事上,仅仅发展其视觉和听觉技术已经逐步呈现了“瘸腿走路”的特征。如今,或许是时候讨论一下给它加上触觉这件事了。

  视觉和听觉长板下的触觉短板

  视觉和听觉技术发展的优点是显而易见的,其最重要的作用也集中在两个字上:识别。

  为什么视觉的识别和听觉的识别技术这么重要,而且被首先开发出来呢?笔者认为主要有以下几个方面的原因。

  第一,视觉和听觉是判断某一个物体特性的基本方法。

  如何确定一个人是张三而不是李四?首先我们要看他的脸,千人一面这件事儿基本不可能,脸也就成为了一个人区别于他人最显而易见的特征。其次,每个人的声音可以说也是藏在身体里的一道独特密码。所以,要让AI认出人,视觉和听觉的技术研发就首当其冲了。

  第二,识别在现实生活中蕴藏着人类的巨大需求。

  无论是工作还是学习,亦或是企业的生产,几乎离不开视听尤其是视觉技术。比如摄像头监控到了工业生产流程、镜头下的人们的动态,但是如何识别这些海量内容就成为了人们的难题。又如各种场景下物联网生态的构建,如果没有视听,万物互联也就成为了无本之源。

  第三,视听技术的突破得益于技术的长期积累。

  计算机视觉分析早在上个世纪六十年代就已经走进了科学家们的研究视线,而以鸡尾酒会为代表的语音识别则是在更早的一九五三年。经过半个多世纪的发展,关于机器视觉和语音识别问题的研究成果已经非常丰富,近年来兴起的深度学习方法则助推其进入了一个发展的高潮。

  事实上,两种技术的大规模应用也确实为无论是B端还是C端的用户都带来了巨大的便利之处。但是随着人们对AI应用能力的要求的提高,视觉和听觉这两块长板显然已经弥补不了触觉短板带来的问题。

  比如倒水这件事。倒水和接水是有很大区别的。接水只需要给机器定一个出水的量,量满即止,就不会出现洒溢的问题。而要想机器实现像人一样倒水,就不是这么简单了,它不仅要涉及到视觉观察水杯在哪儿、是否对准了杯口、水杯是否已经倒满,还必须要保证拿到的被子不会滑落。那么,这个时候只依靠视觉识别就不够了,毕竟机感受杯子会掉这件事触觉肯定比视觉来得快,不然现实中也就不会有那么多人会被烫伤了。

  由此可见,虽然AI不再是瞎子、聋子,但随着其不断长大,触觉障碍带来的麻烦恐怕也就会越来越多。

  从皮肤到虚拟现实:身处闺中的触觉模拟

  人的皮肤上遍布着触觉感受器,其将来自外界的温度、湿度、压力、疼痛等刺激通过神经传递给大脑,然后作出分析和应对,这就是人的触觉活动的一个基本逻辑。

  如果一个人的触觉失灵,最大的危害就是其将无法感受到来自外界的危险,进而无法做出反应。现实中有很多这样的例子,有人天生痛觉缺失,受伤就成了家常便饭。那么用到机器人的身上,触觉的缺失就意味着必须要从其他方面迂回地为其设计自我保护系统。

  那么,有没有什么办法让虚拟触觉成为现实呢?

  事实上,研究者们在实验室里探索虚拟触觉的脚步一直以来并没有停止。只是由于触觉系统的复杂性,比如如何模拟皮肤触觉感受器对不同刺激的感知等,导致触觉研究基本上仍然停留在实验室和论文当中,其在市场上的应用还不够成熟。关于触觉的研究,目前来看主要还是通过开发模拟触觉感受器的传感器,表现在以下几个方面。

  模拟电子皮肤。由于触觉最直接的是由皮肤感受到的,所以电子皮肤也就成为了触觉研究者们最青睐的课题。针对复杂的触觉系统,研究者们同样是采取了针对不同的刺激类别而研发不同的皮肤传感器,80年代以来,分别研发了专门感应温度、湿度、力度等各个方面的传感器。

除了看和听之外,AI能拥有触觉吗?

#p#分页标题#e#

  最近,约翰霍普金斯的大学的研究人员们开发出了一种新的电子皮肤,其可以通过感知刺激将冲动传递给周围的神经来重建触觉。研究者们把电子皮肤套在受试者的指尖,然后将其连接到受试者的身上,测试结果表明,受试者确实能对尖锐物体和圆滑物体表现出疼痛和非疼痛的反应。

  这说明至少在部分功能上,这种电子皮肤可以称得上是成功的。只不过它对温度的感应还不太灵敏,这也是需要改进的地方。

  机器手抓举实验。在家庭或商业场景下,需要机器人用手去做的事情就很多了。在这方面,也有很多科学家尝试了不同的实验内容。

  卡梅隆大学的研究人员做了一套fingervision系统,然后将其安装在了一个机器人的手臂的末端。用来干嘛呢?剥香蕉皮。

  用香蕉来做实验,其意图非常明显了。用力太小,剥不下来;用力过大,估计很多同学都知道把香蕉捏扁后是什么感觉,我们可以感受一下这个机器人剥香蕉的样子:

除了看和听之外,AI能拥有触觉吗?

  看起来还是很专业的嘛。该系统的主要功能就是当机器人在抓取东西的时候,其可以通过触觉来感知物品是否滑动、是否能保持物品的形状完整性,从而来控制抓取的力。但是同学们可以看到的是,虽然香蕉皮剥下来了,但最后拽那一下……实在是有点暴力啊。

  虚拟触觉。斯坦福大学则做了一个听起来很劲爆的装置:wolverine(金刚狼)。它主要用在虚拟现实当中。该装置看起来十分令人无语:长长的黑色铁棍,再加几个金属片,往手指头上一戴就完事儿。但看起来虽然简单,其却能够在为手指带来触觉上的反馈。比如抓取一个虚拟现实的杯子,铁棍的滑块便会扣紧,你就能真切地感受到杯子反馈给你手指的力度。

除了看和听之外,AI能拥有触觉吗?

  英国的一家初创公司则试图在增强现实上做点触觉的模拟。他们在一只手写笔的笔尖附近配备了一个微型设备“音圈驱动器”。这样如果在平板上选择“磨砂纸”的书写场景的时候,该设备就会通过一系列复杂的震动而重现书写场景的感受。一个小小的触觉感受器,就可以模拟很多场景。

  由此可见,无论是针对现实增强还是虚拟增强,已经有很多人扎进了触觉模拟的研究当中。那么,在未来技术成熟的时候,它会给我们带来哪些进步的可能呢?

  集齐了这“三感”,AI更像人了

  首先,义肢触觉的恢复将成为技术应用的重点。

  目前而言,义肢的最大作用是帮助人们恢复了部分功能性的能力,或者说,让人们的身体看起来比较完整。但相较肢体残缺的不幸,人们最渴望的仍然是能够恢复肢体的感知功能。那么,当人造电子皮肤能够像真人皮肤一样感知来自外界的不同类型的刺激,其也将能有效地避免因触觉的缺失而给人们带来的意外伤害。

  其次,模拟触觉技术的进步也将对虚拟现实为更多人所接受产生有利的影响。比如上文中提到的“金刚狼”,以及为更多人所熟知的VR手套等。如此,虚拟真实将会变得更加真实,玩家的沉浸感也将会更强。并且,在训练工人比如修车工等方面,其也将有大的永无之地,为企业省下购买实物训练的成本。

除了看和听之外,AI能拥有触觉吗?

  最后,触觉模拟的成熟也将和AI图像识别、语音识别一起将AI铺向更广更深的领域和层次,进而影响物联网的发展进程。这里我们可以开个脑洞:想象一下,以后你坐进车里,人脸识别认出来是你之后自动启动车辆,通过语音控制你听到了自己喜欢的音乐,而座椅通过对你身体的感知自动调整到你最舒服的位置,是不是很爽呢?

  当然,到那一步或许我们还差得很远,但是实现触觉的智能化很有可能是一个绕不开的课题。当以后的AI集齐了视觉、听觉之外的触觉第三感,除了那皮肤包裹侠的密密麻麻的电子元件,还安能辨其是不是AI?

收藏
0
有帮助
0
没帮助
0