米マサチューセッツ工科大学(MIT)は5月29日(現地時間)、画像認識技術を用いずに物体のかたちや重量を把握できる触覚センサーつき手袋「STAG(Scalable Tactile Glove)」を開発したと発表した。

STAGはニット生地に約550個もの小さな触覚センサーが内蔵された手袋で、畳み込みニューラルネットワーク(CNN)で学習したデータセットにもとづき、STAGを装着して物体を握ることで物体のかたちと重量を把握する。

動作検証では、ソーダ缶、はさみ、テニスボール、スプーン、ペン、マグカップなどといった一般的な26の物体のデータセットが用意され、正答率は最大76%に達した。また、60g以内のものであれば正しい重量を予測できる。STAGを用いることでロボットが人間のようにさわることで物体を識別したり、適切な握力で扱ったりできるようになるほか、人工装具としても応用可能としている。

現行のセンサーベースのグローブでは、価格が数千ドルからと高額で、センサーが50個ほどしか組み込まれていないとのことだが、STAGは高解像度対応ながら10ドル程度の低コストで提供可能な点も特徴となっている。

STAGは、圧力に応じて抵抗が変化する導電性ポリマーでラミネート加工されており、指先から手のひらまで導電性ポリマーフィルムの穴を介して導電性の糸を縫い付けることで導電性ポリマーが圧力センサーとして機能する。そして、STAG着用者が物体を持ち上げたり、保持したり、落としたりしたときに、センサーがそれぞれの点で圧力を記録する。

導電性の糸はSTAGから外部回路に接続されており、圧力データは触覚マップに変換される。研究者は前述の26種の物体を握ったときのデータから、135,000フレームの触覚マップ動画を作成。これにもとづき、利用者が握った物体を判定する。

重量の計算に関しては、物体の重量によって物体を拾ったさいに手にかかえる圧力の変化を見ており、物体が手から滑り落ちるのを防ぐための手の位置といったほかの要素から生じる圧力は無視して算出している。

MITの研究者は、料理などといった雑用を人間と同じようにロボットにもできるようにさせるには、人間と同じように物体を巧みに操れるようにする必要があるとしている。