一种装配了传感器的手套可以学会识别单个物体、估算重量和应用触觉反馈。这种策略或有助于未来设计假体、机械工具和人机交互。
人类能够以适当的力度抓握和感受物体,但这种感觉反馈很难在机器人身上实现。近年来,基于计算机视觉的抓握策略在新兴机器学习工具的帮助下,取得了长足进步,但仍缺少依赖触觉信息的平台。
在5月30日发表于《自然》的文章中,美国麻省理工学院的Subramanian Sundaram及同事设计了一种简易廉价的可伸缩触觉手套,成本仅约10美元,并布置了548个传感器和64个导电线电极。该传感器阵列由一张力敏薄膜和导电线网络组成。电极与薄膜之间的每一个重合点都对垂直力敏感,并会记录通过薄膜的电阻。
研究人员带上手套单手操控物体,由此记录下一个大规模的触觉图谱数据集。数据集包含手指区域的空间关联和对应点,代表了人类抓握的触觉特征。
研究人员使用手套,单手与26个物体进行互动,时间超过5个小时,并录下触觉视频。之后,他们利用记录下来的数据训练一种深度学习网络识别这些图片,发现该深度学习网络能够通过持握方式鉴定出不同的物体。
歡迎光臨 比思論壇 (http://108.170.10.237/) | Powered by Discuz! X2.5 |