[Engadget US版より(原文へ)]

地上を歩き回るために、ロボットの多くはカメラなどの視覚センサーを利用しています。しかし、それが常に実用的とは限りません。とても暗い場所やめちゃくちゃに散らかった場所を歩いたり、さらには人目を欺くような場所もあるからです。しかし幸いなことに、MITはその対策をしていました。Cheetah型ロボット最新版「Cheetah 3」は、接触情報だけを使って、走ったり登ったりジャンプしたりできるのです。つまり、事実上、目を閉じたままということです。このネコ型ロボットは、進む方向の周囲の様子を「感じる」アルゴリズム(暗闇の中、手探りでトイレに行くときのような感じ)と、どちらへ進むのが最適化を判断するアルゴリズムを使っています。

感じるアルゴリズムは、加速度センサー、ジャイロスコープ、脚関節の位置情報から、脚が接地するか、どれだけの力がかかるか、脚を運んでいる間に邪魔されないか、などの可能性を計算します。もし、予期しない障害物に脚が触れたときは、踏み下ろすべきか、または持ち上げるべきかを各脚ごとに判断します。その間、もうひとつのアルゴリズムは、その状況に素早く対応できるように、自分の位置取りを予測します。なので、周囲から押されても、どうすれば元の体勢に戻れるかがわかります。

MITは、この技術だけに依存しようとは考えていません。これはあくまで、適正に周囲が見えない状況や、予期せぬ障害物がありそうな状況(たとえば、何かが後ろ脚に引っ掛かるとか)でのバックアップとして使われることになります。原子力発電所内の捜索、遠隔人命救助、その他、ロボットが立ち往生してしまったり、転んだりしてしまう恐れのある危険な場所での活躍が期待できそうです。


編集部が日本向けに翻訳・編集したものです。
原文著者:Jon Fingas