学部生向けの研究紹介動画

李研究室の研究内容を紹介するビデオの一部を3回生でもわかるような簡単な解説を加えて紹介します.面白い研究がたくさんあるので楽しんでください!

過去の検索と回想支援

知能化空間の機能として過去の検索と回想支援を研究開発しています.人の記憶はかなりいい加減なものです.時間が経つと多くのことを忘れてしまうし,過去を歪曲することも良くあります.一部であっても正しい記憶が残っていればこの機能を用いて忘れかけた過去の記憶を甦ることができます.例えば”いつなのかわからないけど数年前この部屋で友だちと二人で李研について楽しく話した瞬間”のように記憶に残っている断片的な知識で過去を検索して忘れた部分を回復させることができます.このような過去の検索及び回想を支援するため顔認識,表情認識,顔向き認識などの技術とこれらに基づいた過去シーンの自動編集,検索技術を研究開発してます.最近ではさらに空間のアクティビティという尺度で過去のシーンを検索したり,自分の行動を客観的な視覚で見れるようにする研究も行いました.

再構成可能な知能化空間R+iSpace

空間が自ら用途や目的に合わせて返信する夢のような研究です.例えば普段のリビングは家族が一緒にテレビを見たり会話をする空間です.しかし,お客さんを呼んでパーティを開いたりすると壁にあるテレビが邪魔だったり,また,部屋の模様替えを衣装とすると壁に固定した絵や時計,飾りなどの位置を変えるには大変な作業が必要です.我々が提案するR+iSpaceでは壁や天井にある全てのものが空間の指令に従って再配置できるようになっています.そのため状況に合わせて空間内の全てのものを再配置することで常に最適化された空間を実現することができます.

介護訓練用被介護者ロボットCaTARo

現在は介護練習を行うには人形を相手にするか、人を相手にするかしか方法がありません。しかし、人形の場合は何をされても痛みを感じたりそれに対する反応をしたりしないのであまりいい練習にはなりません。また、人間の場合、健常者だと実際に介護を受ける高齢者と色々異なるので練習をしても正しい練習ができたかどうかがわかりません。高齢者を相手に練習するのも介護に熟練していない人が高齢者を相手に介護をすると色んな害を与える可能性があって望ましくないです。このような問題を解決するために本研究室で研究開発しているのがCaTARo(Care Training Assistant Robot)です。CaTARoはセンサやモータが入っているため様々な状態を作り出して病気などを再現することもできるし、関節に加わった力や動きの速度、握られた腕への圧力なども計測できるのでそこから算出して介護動作のどの部分が悪いか、どの部分をどのように直すべきなのかを教えてくれます。

高齢者・障害者向け唇インタフェース

最近,研究室で力を入れている研究テーマの一つが高齢者・障害者支援です.介護支援はもちろん高齢者・障害者の自立をサポートする研究も行っています.この研究も高齢者・障害者の自立を目標に開発されたインタフェースです.ユーザ唇だけでロボットを操作することができます.音声認識と似ていますが,これは機械読唇と呼ばれている技術です.音声を発しにくい状況でも,周りがうるさい環境でも言いたいことを声を出さずにしゃべれば認識してくれます.また,それに加えて口を開ける大きさで程度の入力も簡単に行えます.例えばこのくらいの速度のように言葉で表現するのが難しいものなどに有効です.

テーブルトップタンジブルユーザインタフェースPAWN

タンジブルインタフェースとは情報を手で触るようにして操作できるインタフェースのことを意味します.テーブルトップインタフェースとはテーブルに特殊な加工を施し,ものまたは表面を触った手の位置が認識できるようにしたものです.PAWNはチェスの駒であるポーンと形が似ているから命名された李研で開発されたテーブルトップタンジブルインタフェースです.通常のテーブルトップとは異なって特殊なテーブルが要らなく平面であればどこでも使用可能であることがその特徴の一つです.

災害支援ロボットCEEE

CEEEは殆どのレスキューロボットなどが専門家じゃないと操作できない高度なロボットではなく,一般の人が安く購入でき簡単に操作でき,災害時に自分の力で災害地を支援することを目標に研究開発されたロボットです.全てのハードウェアが李研のオリジナルなもので,設計,部品購入,組み立てを行いました.これまで様々な研究が進められてきており,このビデオにはその成果の一部を紹介しています.力フィードバックを用いた直感的なインタフェース,車の中で運転する感覚で操作でくるGUI,不整地走行のために開発された揺れ除去手法,遠隔地のあるものを回収または操作するためのロボットアームと共通のインタフェース,ユーザの理解を高める遠隔地の自動3次元マップ生成手法などが紹介されます.

ユビキタスディスプレイ (人間中心型情報投影装置)

人が見ている視線の先にCGを投影することで人は場所やデバイスに縛られることなく自由に動きながら情報を得ることができます.これまでの情報機器がデバイスを持ち歩く,小さい画面,情報元を探し回るなど様々な形でユーザを拘束しました.これに対してユビキタスディスプレイは真の人間を中心とする情報提供でデバイスです.人の位置を把握することで自動的にマジックアートで3D画像を書くことができるのでユーザはビデオのように特殊なメガネをかけなくても3次元CGを見ることができます.この技術を認めてもらい著名な国際会議でベストビデオ賞を取りました.

ユビキタスディスプレイによる新しい広告手段

ユビキタスディスプレイの用途は様々であるが,大型商業施設における新しい広告手段というのは実用可能性が極めて高い利用方法です.既存の広告は固定された場所で広告をするだけですが,ユビキタスディスプレイの場合は,ユーザを見つけ出し,そのユーザの移動方向,移動速度などを考慮しそのユーザが見やすいようにかつ邪魔にならないように視野角内に宣伝広告を提示します.
このビデオでは,正しく広告が提示された場合と,失敗した場合を見せていますが,ユーザが広告に興味を示した場合,メニュー画面が出てきてユーザと足踏みなどでインタラクショを行う研究も行いました.例えば興味をもった広告に関連して,その店まで案内しましょうかなどを尋ねて,もし案内してほしいと答えた場合はユビキタスディスプレイが店までガイドしながら場所と連動した様々な情報を提示し続けます.

人まねによるヒューマノイドの操縦

ヒューマノイドの活用度は年々高まりつつあり,様々な場面でヒューマノイドの活躍がこれから期待されている.しかしヒューマノイドの動きを作るのは熟練者じゃないと非常に難しく,手間のかかる作業である.本研究では人の動きをカメラで読み取り,そこから姿勢を分析しヒューマノイドにリアルタイムでその動作を真似させます.もちろん人がロボットから離れた場所で行っても,事前に行っても問題ありません.しかし,人間とヒューマノイドは関節の数,構造などが異なるためそのまま人の姿勢を真似すると倒れてしまいます.本研究では人の姿勢をヒューマノイドが倒れないように自動で修正しながらヒューマノイドを制御しています.

FRC (未来型コンピュータ)

この研究は未来型コンピュータ(Future Robotic Computer)の実現を目指して行っている研究です.ビデオの中ではFRCの機能とFRCを用いたユーザ間のインタラクションの例が紹介されます.便利で使い勝手の良い未来型コンピュータを実現します.

指差しインタフェース

知能化空間内で人が操作したい対象を指で指すだけでメニュー画面が現れて,また,そのメニューを指で指すだけで操作できるインタフェースです.この研究で著名な国際会議で若手論文賞を受賞しました.

R-Fii (柔軟な実世界インタフェース)

知能化空間内で人が自分のスマートフォンを取り出しアプリを実行すると空間中のものが簡単に操作できるようになります.使用法は至って簡単.操作したい対象の写真を取るとメニュー画面が現れそれを指でタッチするだけ.ユーザ管理もしているのでユーザによって使用権限がなかったりすると操作ができなくなったりもします.

顔の動きによるロボット操作インタフェース

このビデオは皆さんのための特別なビデオです.なぜなら,このビデオは一般公開じゃなくてリンクを知っている人だけが観られる限定公開だからです.理由は,まだ研究の完成度側面では人に見せられるものではないからです.しかし,内容は面白いので皆さんにだけ公開します.首以下の運動機能を喪失した障害者が顔の動きだけでロボットを操作するという背景での研究です.本来は車いすに乗って操作すべきですが,開発段階なのでロボットが暴走してユーザを気づ付ける恐れがあるから車いすに座らずこのように遠隔操作で行いました.

立体音響を用いた人の誘導

例えば美術館である名画を見にいくとなった時に地図を手でもって自分の位置を確認しながら目的地を探しながら移動したら目的地にたどりつくまで他の美術品の観覧は満足にできるんでしょうか.また,地図を見ないで音声ガイダンスに従って「ここを右に曲がってください.」,「突きあたりの手前にある右のドアを開けて中に入ってください.」のような案内を聞きながら移動すると友達と会話はできるんでしょうか?また,日本語がわからない外国人なら?難しい言葉がわからない子供なら?このデモでは知能化空間が人の位置を把握して立体音響で音源の位置をユーザに教えているのでユーザは意味を考える必要もなく直感的に音源の位置まで移動したりするだけで案内されます.

あるおん!(リアルタイム効果音再生システム「R+おん♪」)

上に装着した加速度センサで腕の動きを計測して腰部分にあるデバイスに無線でその情報を送ります.腰部分のデバイスは動きを分析しタイミング良く効果音を鳴らします.エンタテインメントの目的で研究開発しています.

飽きない育成ゲームの実現を目指してR-Gotchi

これは4回生の女子学生が行った卒論の内容です.皆さんも遊んだ経験のあるたまごっちを基本コンセプトに飽きない育成ゲームの実現を目指して行った研究です.魂という概念があってタブレットの中の仮想のR-Gotchiと遊んだり,魂を移動させ,ロボットのR-Gotchiと遊んだりすることができるものです.魂にはR-Gotchiの経験や知識などが含まれているため片方で遊んだデータはもう片方に魂が移った時に反映されます.この研究はアイディアは僕と一緒に考えたもののアンドロイドのアプリ制作,ロボットの製作,ぬいぐるみ制作など全てを基礎勉強をしながら一つずつ積み重ねてここまで作り上げました.しかし,また十分なレベルまでには至っていません.興味のある方,この課題に挑戦してみませんか?

直感的なインタフェース うさぎバンド

これは研究ではありません.2012年度の創成3の授業で李研の3回生二人が制作した成果物です.音楽を演奏するうさぎバンドをカメラマンの気持ちで撮影するとカメラとバンドメンバの距離,画面上に映っているかどうかで各パーツの音が大きくなったり小さくなったりしま.また,うさぎの動きも一緒に変化します.(音制御機能は37秒からです.)ちなみにその3回生二人(N.K.さんとH.K.さん)はこの作品で最上位である父母懇優秀賞を受賞して,副賞で貰った10万円で僕と同期全員に焼き肉をおごってくれました.^^