東京工業大学の川嶋健嗣准教授らは、目による認識と実際の動きとの差だけを用いて力の感覚を伝達できるシステムを開発した。スードハプティック(疑似力覚)という技術を利用した。カメラの前でバネを押す身振りをすると画面内のバネを押せる仕組みで、反発力を変えると画面内のバネが押される動きが遅くなり、その情報が身体に反映されてバネの反発が強まったように感じられる。手術支援ロボットの操作部などへの応用を目指す。
システムは、パソコンと市販の通信用カメラ、マーカ用の手袋から構成。カメラで手の位置を把握して、画面内の手に動きを反映する。一度、水平方向にバネを押す身振りをして動きを登録し、数値を変えて画面内のバネの動きを遅くすると、視覚情報の認識が変化することで、実際の動きにも抵抗を感じる。鉄アレイに見える軽い物体を持つときに、認識との違いでビックリする現象と同様という。
被験者へのアンケートと筋電による力の入り方の分析をしたところ、実際に画面内のバネの反発を強くすると腕を動かす力が強くなったことが確認された。今後は1方向以上の動きにも力覚提示できるよう研究を進める。
「da Vinci(ダヴィンチ)」をはじめ手術支援ロボットは通常、手術部(スレーブ)と人の操作部(マスター)が離れており、手術部側で対象物に触れたとき手応えを操作部に伝えることが、より安全な手術につながると考えられている。
また、同システムの応用分野は広く、コントローラだけでは難しい、直感的な操作が必要な機器に有効と見られる。米Microsoft社が「Xbox360」向けに、コントローラなしで身振りだけで操作できるシステム「Kinect(キネクト)」を発売予定。こうしたインターフェースに搭載できれば、新感覚のゲームの登場が期待できる。
東工大の只野耕太郎助教、吉川大地修士2年生の共同成果。研究は科学技術振興機構(JST)CREST研究領域「共生社会に向けた人間調和型情報技術の構築」の一環。
■関連サイト
2010.10.21 早大の藤江教授ら、力覚提示により視覚障害者をナビゲートできる杖型装置を開発
http://robonable.typepad.jp/news/2010/10/21waseda.html#tp
2010.08.26 産総研、3D映像に触れられる立体テレビシステム開発、手術シミュレータなどに応用
http://robonable.typepad.jp/news/2010/08/26aist.html#tp
2010.05.18 NHK、仮想物体の触感を伝える装置試作、力覚提示装置を統合制御、テレビに応用へ
http://robonable.typepad.jp/news/2010/05/18nhk.html#tp
2010.03.08 東工大、小型手術支援ロボット開発、空気圧で鉗子にかかる圧力を検知、センサ不要に
http://robonable.typepad.jp/news/2010/03/08kawashima.html#tp
2009.10.02 慶大、人の動作を保存・再現するシステム開発、遠隔医療や技能伝承などに応用
http://robonable.typepad.jp/news/2009/10/20091002-229e.html
2009.06.25 産総研、押す・引く・浮き上がるなどの感覚を提示する体感型釣りゲーム出展
http://robonable.typepad.jp/news/2009/06/20090625-6756.html#tp