ブログトップ
東大と産総研 HRP-2 で「会津磐梯山踊り」に成功
東大と産総研、HRP-2で「会津磐梯山踊り」に成功

東京大学・生産技術研究所(東大生研)と産業技術総合研究所(産総研)・知能システム研究部門は、共同で、ヒューマノイドロボット「HRP-2」に「会津磐梯山踊り」を踊らせることに成功した。後継者不足に悩む無形文化財(能や民俗舞踊、匠の技、茶道の手前など)を、ロボットをメディアとして「保存」しようという研究の成果。産総研のサイトでは、その動画ファイルも公開されている。

ヒューマノイドロボットでの踊りの再現には、まず実際の踊りのデータを取得することが必要となる。サンプリングには会津民謡玉水会の協力を得て、同会の山田久子師範などの踊りをモーションキャプチャ・システムで計測。体の各部にマーカーを取り付けて踊ってもらい、特殊なカメラで撮影することで動きに関するデータを取得した。

そのまま動きをロボットで再現できれば良いが、現状では仕様的な制限などもあるため、HRP-2で実行可能なように動作を変換する必要がある。このモデル化は上半身と下半身で異なる手法が採用されており、体の安定性を重視する下半身ではスキルモデルに基づく足の軌跡生成、踊りの特徴を大きく表現する上半身では逆運動学に基づく腕の軌跡生成が行われた。

下半身では、基本的なタスク(動作)モデルとして、「右踏み出し」「左踏み出し」「沈みこみ」「たち」という4つのモデルを考えて設計した。モーションキャプチャされた動作の解析では、システムがこれらのモデルに基づき、いま何をしているのかというタスクの認識を行う。そして、そこから持続時間、歩幅、足を上げる高さなど、各タスクでのスキルパラメータを取得し、最後に、このパラメータの値からロボットの足の軌道を生成した。

上半身でも同様にタスク・スキルモデルを利用するが、より複雑な動きをする上半身ではタスクモデルの数が多くなるため、キャプチャデータから自動的にタスクモデルを抽出する手法を開発した。ここで利用したのは踊りの「留め」(重要なポーズ)の概念で、この留めをタスクとし、音楽情報や手足の動作の微少な停留を利用してこれを抽出した。

ロボットが安定して立つためには、ゼロモーメントポイント(ZMP)が足の接地面の内側に入っている必要があるため、最後に、生成されたデータの調整も行った。産総研の動力学シミュレータを利用し、ZMPが足裏境界にある部分の足の軌道を微調整。それらをすべて修正し、ZMPが常に足裏内部に入るような動作を生成したことで、安定して踊ることが可能となった。

東大生研・池内研究室(池内克史教授)では、これまで、画像処理技術を用いて文化遺産をデジタル保存する研究を進めてきた。大仏や正倉院御物などの有形文化財に対しては、3D形状計測や各種アルゴリズムの開発などを行い、すでに鎌倉・奈良の大仏、タイのスリチャム寺院のデジタル化などの成果を得ている。

一方、伝統芸能・技法などの無形文化財の保存については、従来はビデオ撮影などの手法が採られてきたが、これは後継者を育成するための「素材」ではあっても、「後継者」そのものにはなり得ない。同研究室では、ヒューマノイドロボットに各種の芸能・技法を動的に保存し、無形文化財を継承することを提案。産総研と共同で研究を開始し、その第1弾として、会津磐梯山踊りの再現を試みた。

http://pcweb.mycom.co.jp/news/2005/01/13/003.html


HRP-2、人間と一緒に会津磐梯山を踊る

 国立学校法人 東京大学生産技術研究所(東大生研)池内研究室と、独立行政法人 産業技術総合研究所(産総研)は12日、共同で、ヒューマノイドロボット「HRP-2」に、会津磐梯山踊りを踊らせることに成功したと発表し、記者会見でデモを行なった。

 会津磐梯山を会津民謡玉水会の人に踊ってもらい、会津大学開発の32点の光学式モーションキャプチャーシステムで観測を行なった。そして特徴的な動きを抽出したあと、ヒューマノイドに可能な動きに変換した。CRESTの「文化遺産の高度メディアコンテンツ化のための自動化手法」の一環として実施されたもの。

 もともと池内研究室では文化遺産をデジタル技術で保存することに取り組んでいた。無形文化財の場合、ビデオテープで演者の動きをアーカイブすることがふつうの手法だが、それでは教材にしかならない。実際に演ずることができるものが必要だということで、動的にアーカイブするためにヒューマノイドを使うことになったのだという。

 このシステムでは、人間の動きから、ロボットが「何をするか(タスク認識)」、「どのようにするか(スキル認識)」それぞれを把握し、ロボットの動きに変換することができる。

 まず、人間の動きを画像から観測し、各ポーズの遷移速度から何をやっているかを認識するソフトウェアを作った。その動きをそのまま単純にマッピングするとロボットは転倒してしまうので、動力学シミュレーターなどを使い、ロボットに適した動きに変換してやる必要がある。

 特に、上半身はともかく、下半身はバランスを取らなければならない。そこで上半身の運動と下半身の動きを分け、下半身のほうはトップダウン的にタスクモデルを設計した。具体的には、「たち」、「沈み込み」、「右踏みだし」、「左踏みだし」の基本的な動きをつくり、その動きの遷移であると捉えさせた。

 一方、上半身は基本的にモーションキャプチャーからタスクを自動抽出させている。会津磐梯山の動きには「留め」と呼ばれる特徴的な動きがある。まず踊りの師範から踊りのスケッチをもらい、どういうふうにするかタスクのサンプルを作った。

 次に、音楽のリズムと動きは同期しているという仮定を置き、動きを自動抽出するために、音楽のリズムと身体の各部が止まる部分を自動抽出させるソフトウェアを作ることで、踊りの留めのタスクモデルを自動抽出させることに成功したという。これは、未知の舞踊についても自動的タスクモデルが抽出できることを目指しているためだ。

 そして逆運動学で関節角度を計算し、できるだけ動きをなめらかにし、最終的に産総研の動力学シミュレーターでZMPを計算して動きを生成したという。

 池内教授は、「ロボットの動きに合わせて動きを作ったのではなく、人間の踊りを観察し、特徴を自動抽出し、踊りの特徴を保持しつつ、ヒューマノイドロボットの動きを自動生成した点、そして人間と共演を実現した」点を強調した。これによってヒューマノイドロボットの問題点も明確化するし、新たなメディア芸術の可能性も出てくるという。

 ロボットと人間は関節自由度も関節速度も違うため、まったく同じにはなりようがない。もともと、人間同士で踊りを真似るときでも同じ問題がある。だが、身長や体重が違っていても、あるいは身体にハンディキャップがある人でも踊りは踊れる。それは人間が、踊りの本質を抽出しているためだと考えられる。

 今回のシステムの目的は、踊りの本質的な動きを取りだすことにある。計算機で「踊りのポイント」を抽出する点が、ビデオで単にアーカイブすることに対するアドバンテージであるという。

 また、将来は「ロボット100台と人間100人くらいとで、ロボットミュージカルをやるといった展開もあり得る」と語った。

池内教授によれば、人間の動きを解析しヒューマノイドの動きを生成するこの技術は、無形文化財の保護・普及に役立つという

山田久子師範。「ロボットさんの動きを見てたいへん驚きました。私の体の動きの癖、特に脚の動きが似ているんです。将来は小学生でもロボットさんを見て踊りを覚えられるようになると思います」とコメント

産総研 ヒューマノイド研究グループ 比留川博久グループ長。「表現力としてはまだまだ改善の余地がある。もっと関節速度をあげる必要があるし、脚も今は下駄くらいあるので、もっと人間なみにしたい。踊りには指で表現するような細やかな部分もある。そんな動きも実現させたいし、見た目ももっと人間っぽいロボットにしていきたい」

HRP-2 による踊り【動画】

http://pc.watch.impress.co.jp/docs/2005/0113/hrp2.htm
[PR]
by unkotamezou | 2005-01-13 07:14 | 自然 科學 技術