「GelSightセンサー」は、シリコンゲル素材のスキンの内面をLEDライトで照らして撮影することで、触覚をコンピュータービジョンで扱えるようにするもの。ロボットのピッキング精度を高めるうえで、触覚センサーは重要技術だ。
従来のGelSightセンサーでは、センサー自体のサイズが大きすぎたり、センシングの角度が狭かったりといった実用面での課題があった。こうしたなか、カリフォルニア大学バークレー校のAI研究機関BAIRは、コンパクトかつ全方向でセンシング可能な触覚センサーを開発した。
内視鏡用のマイクロカメラ複数台による全方向センシング
従来のGelSightセンサーが市販のWebカメラが用いられるのに対して、研究チームによる触覚センサー「OmniTact」では内視鏡用のマイクロカメラ採用された。
焦点距離が短いカメラで、モノに触れたときのシリコンゲルの変形を直接キャプチャし、そこから形状、材料特性などを推測する。また、センサーは指のような形状をとり、高解像度で視野角の広いカメラが複数台用いられている。
こうした設計により、センサー全体のコンパクト化を実現し、センシングの角度はほぼ360℃をカバーしているようだ。
わずか100回の試行で電源プラグを拾って挿せるようになった
研究チームは、触覚センサーが統合されたロボットハンドが、電気プラグを拾い上げて壁のコンセントに挿入するタスクを実施。同タスクを学習するために、キーボード制御によるデモでトレーニングされ、わずか100回の試行で電気プラグやコンセントが認識できるようになった。
別の多方向触覚センサーを用いた際には、タスクの成功率は17%だったのに対し、複数台カメラのOmniTactでは成功率80%を実現している。
今後研究チームは、OmniTactをより安価でコンパクトにして、幅広いタスクで利用可能にする予定とのこと。