引用元:<http://nge.jp/2014/10/30/post-87199>
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
MITがロボットの頭の中を可視化することに成功
「アルゴリズム」という言葉は、広辞苑を引くと「問題を解決する定型的な手法・技法」などとかかれているが、専門外の人間にはちょっとわかりにくい概念かもしれない。
また同様に、掃除ロボットのルンバや、自動運転の自動車などはこのアルゴリズムによって自分で判断し、動いているのだが、なにを検知して、どう判断して動いているのかまでは、なかなかわかりにくい。
そんな何を考えているのかわからないロボットの頭の中を、MIT(マサチューセッツ工科大学)の研究者が可視化することに成功した。たとえば、ルンバのような円盤状の自律走行ロボットに、部屋の反対側まで行かせる指令を出す。通路上には、人間の歩行者に見立てた障害物が行ったり来たりしている。ロボットはその障害物とぶつからないように最適なルートを判断して走行する。
このシステムは、その際、ロボットが認識している歩行者をピンクのドットとして表したり、ロボットが検討しているルートをラインとして表示したり、その中で最適と判断したラインの色を変えるなどしてフロアに表示する。ロボットが動けば、それに合わせて映像も変化する。
そうすることでロボットがなにを認識して、どう判断して動いているのかを可視化するのだ。下のほうで紹介している動画では2台のロボットがお互いを認識して判断を行っているシーンが見られる。
自動運転技術の開発が速まるかもしれない
このシステムは、天井に設置された投影システムとモーションキャプチャー装置、そしてロボットの頭の中を可視化するアニメーションソフトの技術で構成されている。
研究者、開発者といえども、つねにロボットがなにを認識してどう判断したかを100%把握できるわけではない。複雑なアルゴリズムで動いているからだ。
しかし、こうやってロボットの認識や判断を可視化することができれば、アルゴリズムに間違いがあったときに、なにを認識したとき(あるいは認識できなかったとき)に、どういう間違いが起こったのかをすぐに突きとめることができる。
このシステムで実験を行えば、じっさいにロボットを現実世界でテストしてなにかにぶつかったり、墜落してしまう前に、アルゴリズムのコードや、ロボットの機器を修正できる可能性が高まる。
たとえば山火事を調査するドローンの開発のために、投影した森林の中でドローンを飛ばしたり、荷物配達ドローンの開発のために、実際の町並みを投影したところにドローンを飛ばしてテストするといった使い道も考えられる。安全で低コストなテストがスピーディに行えるようになるのだ。
この技術の応用で、自動運転の自動車や、配達用ドローンや、その他の自律走行ロボットの開発スピードが速まることが期待される。
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
最近はソフトバンクが出したサービスロボ「ペッパー」やお掃除ロボ・ルンバなどのおかげで、ロボットに対してかなり親近感がわくようになりましたが・・・。
まだまだ工場でガシガシ稼働している無機質な産業ロボの方のイメージが強い。
ロボットの内部の可視化できることによって、そういったロボットとの距離感もぐっと近づいてくるのかもしれない。
コメントをお書きください