Rabaey Lab
Rabaey Lab

カリフォルニア大学バークレー校の科学者が前腕に巻くだけでAIがハンドジェスチャーを読み取れるフィルム状のデバイスを開発しました。このフィルムには64点の電極があり、読み取った神経信号のパターンをAIが読み取って分析、あらかじめ学習した情報と照合してどのようなジェスチャーをしているかを判別します。

これまでにも、人の手のジェスチャーを検出するコンピュータービジョンシステムやセンサーグローブといったデバイスは開発されています。しかし、コンピュータービジョンの場合はカメラの前に腕がはっきり見えるようにしておかなければならず、イメージにユーザーの顔が映り込んでいれば、何らかの際にプライバシー面のリスクも発生しないとも限りません。一方センサーグローブ複雑な機構が必要なうえ、壊れやすいという問題があり、実用的なデバイスはまだ実現していません。

これらの問題を考慮してUCバークレーの研究者らは腕に巻く格好のフィルム型デバイスを考えつきました。ユーザーはフィルムを肘と手首の間に撒くように貼り付け、いくつかAIに機械学習させたジェスチャーを行うと、それがどのジェスチャーであるかを判断します。チームは握りこぶし、サムズアップ、手のひらを拡げる、指を曲げて数字を数えるなど、21種類のジェスチャーを見分けられるようになります。

またAIはつねに学習したジェスチャーを復習しアップデートしていくため、たとえば汗で多少フィルムがずれたり、いつもと違う姿勢でジェスチャーをしてもそれを正しく認識し覚えることができます。またデータはすべてデバイス内で処理するため、クラウド接続などは必要ありません。

このデバイスの技術をさらに改良、発展させれば、ジェスチャーで操作する電子機器や、現在あるものよりも高度な動きが可能なロボット義手、さらにVR用のコントローラーといった用途での実用化が期待されます。

source:UC Berkeley