手術ロボット、手術のビデオを見て縫合処置を学習

見よう見まね

Munenori Taniguchi
Munenori Taniguchi
2020年06月17日, 午後 04:50 in AI
0シェア
FacebookTwitter
Motion2Vec

外科手術において、患部の処置が済んだあとの縫合作業はまさに最後の締めくくりでありつつも単調な作業の繰り返しになることが多いものです。インテルとカリフォルニア大学バークレー校は、その単調な作業を肩代わりするロボットを作り上げました。

そのロボットは自動的に患者の傷口を縫合できるようになるため、熟練の医師による縫合作業の映像をいくつもAIに見せて学ばせ、非常に高い精度で模倣できるようになったとのこと。

ロボットに縫合手術を教えたUCバークレーのドクターAjay Tanwani氏は”Motion2Vec”と呼ばれる映像からAIを学習させるためのシステムを開発しました。従来の方法では静的な方法での学習であったり、模倣した動きの軌跡を教え込んだりしていたのに対し、Motion2Vecの視覚的な観察から学習する機能には多くの魅力があると述べています。

人間は目で見た対象物のおおまかな動きはだいたい1度見れば真似できます。一方、ロボット(AI)はそれを数十fpsで流れていくピクセルのストリームとして理解するだけ。その映像を解釈して自らの動きに置き換える作業がAIには必要になります。

それを実現するために、研究チームはシャムネットワークを使うことにしました。シャムネットワークとは、AIのニューラールネットワークを鍛える手法のひとつで、2つの画像の似ているか似ていないかを距離関数として算出する、古くからある機械学習手法のひとつです。

このネットワークは2つの2入力における類似性をランク付けして学習するため、たとえば監視カメラに映った人物の顔と証明写真の顔を比較して同一人物かを見え分けるといった作業に用いられます。一方、今回の研究では、医師の腕の動きを写したビデオ映像と手術ロボットの腕の動きの映像を照合し、ロボットの動きを人間に近いレベルまで引き上げることを目的としました。そして、わずか78本の映像を学んだだけで、セグメンテーション精度85.5%、動作における平均誤差0.94cmで動作できるようになったとのことです。

Tanwani氏は、これによって将来医師の手による手術がなくなるとは考えていません。この技術で鍛えた手術ロボットが、オペ室で実際に作業できるようになるまでにはまだ数年の時間が必要だとしています。しかもこれは手術がほぼ終わったあとの、単調な縫合作業についての話です。

もちろん、適切な方法でAIをトレーニングさせていけば、最終的には縫合だけでなく、死んだ組織の除去などいろいろな補助的作業を受け持つようになる可能性はあります。しかし、そうした作業を担当できるようになるだけでも「外科医は手術の時間を短縮し、より複雑な作業に集中できるようになると信じている」とTanwani氏は述べました。

source:Motion2Vec


 

TechCrunch 注目記事新型コロナのソーシャルディスタンスを支援するビデオチャットアプリ8選

新型コロナウイルス 関連アップデート[TechCrunch]

 

関連キーワード: AI, surgery, UC Berkeley, Intel, Medicine, Robots, news, gear, tomorrow
0シェア
FacebookTwitter