カリフォルニア大学バークレー校(UCバークレー)の「AMPLab」と言えば、ビッグデータ処理ソフト「Spark」を生み出したことで知られる。そのAMPLabが米Googleと共同で「クラウドロボティクス」の研究を進めている。ロボットに必要な機能をクラウドのサービスとして提供することを目指す。

 UCバークレーとGoogleが進めるクラウドロボティクスに関する最新の研究成果「Dex-Net 1.0(Dexterity Network 1.0)」は、2015年10月23日にUCバークレーで開催された「Bay Area Robotics Symposium 2015」で公開された。これはロボットアームによる把持(はじ、物体をしっかりとつかむ動作)に必要となる「3D物体認識機能」と「把持計画機能」の二つの機能を、クラウドのサービスとしてロボットに対して提供するものになる。

 研究チームのリーダーで、UCバークレーのAMPLabと「Automation Sciences Lab」に所属するKen Goldberg教授(写真)は、「Dex-Net 1.0の仕組みは、iPhoneの音声アシスタント機能『Siri』に似ている」と説明する。Siriはユーザーの音声データを米Appleのクラウドに送信し、クラウドで音声認識を実行している。ユーザーの話しかけに対する返答内容も、クラウドが生成する。SiriではクラウドがiPhoneに対して音声アシスタント機能を提供しているように、Dex-Net 1.0ではクラウドがロボットに対して物体の把持に必要な機能を提供する。

写真●カリフォルニア大学バークレー校のKen Goldberg教授(右)と共同研究者のJeffrey Mahler氏
写真●カリフォルニア大学バークレー校のKen Goldberg教授(右)と共同研究者のJeffrey Mahler氏
[画像のクリックで拡大表示]

 Dex-Net 1.0の仕組みはこうだ。まずロボットが物体を撮影してデータをクラウドに送信する。するとクラウドが「3D物体認識機能」によってその物体が何かを認識し、物体の3D(3次元)での形状を割り出す。そしてはその物体を適切につかむ方法を「把持計画機能」に基づいて考え、ロボットに対して動作指示を送る。「クラウドロボティクスは、ロボットの機能をクラウドによって拡張しようという取り組みだ。ロボットが内蔵するコンピュータだけでは実現できない高度な機能が、クラウドのパワーによって実現できるようになる」。Goldberg教授はそう語る。

機能は機械学習で開発、教師データはシミュレーションで作成

 Dex-Net 1.0には、もう一つ大きなポイントがある。それは、物体の把持に必要な「3D物体認識機能」と「把持計画機能」の両方を機械学習によって開発したことだ。「ロボットの世界では長らく、人間がロボットの動作環境を分析して動作パターンなどを作り出す『分析的(アナリティック)モデル』が一般的だった。しかし我々は、従来の分析的モデルではなく、データを基に機械が動作パターンを作り出す『経験主義的(エンピリカル)モデル』を採用した」。Goldberg教授はそう語る。

 しかもDex-Net 1.0では、機械学習で使用する「教師データ」の作成に、コンピュータによるシミュレーションを活用している。それがどのようなものか、詳しく見ていこう。

 まずは3D物体認識機能についてだ。同機能の開発には神経回路を模した「ニューラルネットワーク」を多段に組み合わせる「ディープラーニング」を採用している。一般にディープラーニングを採用した物体認識では、被写体が何か「タグ付け」した大量の画像ファイルを「教師データ」としてニューラルネットワークに学習させる。そうするとニューラルネットワークが、物体を識別する際の手掛かりとなる「特徴」と、特徴に基づいて個々の物体を識別するルール(重み付け)をデータを基に見つけ出す。