机械手臂灵巧性再升级

发布时间:2020-07-17

機械手臂靈巧性再升級

科技发展蓬勃的今日,机械手臂已跨足各个领域,辅助人类提升工作效率。其所追求的最终目标,不外乎是能和人类的双手一样敏捷,以执行更精密的任务,惟现有机械手臂的灵巧性仍远不及人类。因此,OpenAI团队推出结合AI的全新系统Dactyl,透过强化学习和能高速平行运算的训练平台Rapid,让Dactyl在50小时的训练过程中吸收相当于100年的学习经验,更自行摸索出人类常用手势,大幅提升机械手臂的操作灵活度。

难题与解决方案

以往机械手臂的程式多被写死,因而限制了可执行的指令内容,因此研发团队纷纷改以机器学习来开发新一代的机械手臂,但机器学习的训练过程需要耗费大量时间,并不断地重複相同动作,容易耗损硬体设备,对于机械手臂这种精细度高的硬体而言更是一大伤害;就此问题团队提出替代方案,改用模拟设备来训练演算法,然而毕竟实体和模拟设备不全相同,要直接将演算法套用至现实中仍有一段差距要克服。

为此,研究团队在不微调演算法的前提下,在训练过程中随机加入一些变数,例如摩擦力、欲操控之物体大小等,并赋予机器人短期记忆,如此一来,Dactyl经过一段时间便能掌握物体确切的大小和其他参数,并随之调整。

深度学习架构

OpenAI团队採用Shadow Dexterous Hand作为系统输出的硬体设备。该机械手臂有24个活动关节,远超出其它机械手臂(平均仅7个)。研发团队主要是将六面印有不同色块和字母的正方体积木放置在机器手臂的掌心中,要求它转动至指定方向。Dactyl的核心演算法为强化学习,其中更结合了两套类神经网路─操控网路和视觉网路。

首先,操控网路以LSTM架构(Long short-term memory,具记忆的神经网路)来学习环境中的动力学,并沿用OpenAI在Dota2电竞比赛中开发的强化学习训练系统Rapid。由于Rapid动用了六千余颗CPU和8颗GPU来加速,让Dactyl仅需50小时就能蒐集相当于100年的学习经验,这也正是该系统能达到高灵巧性的主要原因。而视觉网路则是基于CNN架构,研究团队在手臂上方架设三台相机镜头,将其接收到的影像作为输入,经视觉网路学习后,输出估计的积木的方向和位置资讯。操控网路用以执行手臂操作,而视觉网路则让手臂得以「看见」积木,透过这两个网路Dactyl可以更娴熟地操控机械手臂、完成指定任务。

高灵巧性的展现

由研究团队提供的影片中,可以看出成果相当不错。机械手臂在虚拟实境中历经相当百年的反覆试验后,能顺利连续执行30种不同的方向指令,灵活地转动方块,将积木转动至指定方向(例如将印有「A」的一面朝上、「P」面朝外等),落实操作指令零失误。测试时团队将演算法应用至真实手臂上,最高纪录是能完美地转动方块至15种方向。研究团队还发现Dactyl竟在无人教导下学会一些人类的常用手势,例如:指尖转动、滑动积木等,另外,在指尖紧握的指令时,Dactyl会使用大拇指和小指,然一般人都是用大拇指和食指或中指,就此研究团队认为是因机械手臂上小指较其它手指还多出一个关节的原因,这也代表着Dactyl不仅会摸索出人类常用手势,甚至会根据机械手臂的机能来做出改变。过去从未有机械手臂能完成如此精巧又複杂的操作指令。

结论

从Dactyl的成果中研究团队也得出几个结论。首先,触觉功能的侦测器并非必要。例如实验中仅使用到方向和位置资讯,亦能顺利完成任务。再者,只要对单一物体作出随机的参数调整,就能让系统具有概括性,不必再针对特定物体进行调整。除此之外,他们也发现一味压低反应时间并不会有更好的成果:Dactyl每执行一个指令约需80ms的反应时间,一般人类则是介于150-250ms之间,当团队试图将反应时间降至40ms时,成果并没有显着的提升,反而让训练过程更加耗时。

Dactyl在灵巧度上的亮眼表现也许能将机械手臂带领至下一个里程碑,未来机械手臂将有机会执行难易度更高的任务,组装更精密的零件、参与手术,抑或是提升家庭机器人的实用性。无论是何种应用方向,皆是人类之福。

编译来源

M. Huston, “Watch a robot hand learn to manipulate objects just like a human hand”. Science, 30 July 2018.

参考资料

OpenAI. “Learning Dexterity”. OpenAI, 30 July 2018.

(本文由教育部补助「AI报报─AI科普推广计画」执行团队编译)

上一篇: 下一篇:

相关搜索