【富士通フォーラム 2017レポート】ロボットクラウドプラットフォームの発表やロボピンの様々な活用法

富士通フォーラム2017が5月18日、19日、東京国際フォーラムで開催されました。

今回はロボットを使った展示が色々とされているとのことで、気になったものをご紹介してきます。



富士通ロボットクラウドプラットフォーム

「富士通ロボットクラウドプラットフォーム(仮称)」の展示がされていました。ロボットから人間の顔画像や声を取得し、顔表情認識や音声感情認識の分析結果データを統合管理するというものです。


ユニボ君がいました

富士通ロボットクラウドプラットフォーム(仮称)概要図

顔の認識にはDeep Learningを用い解析を行います。


Deep Learning概要図

声の解析には音声感情認識エンジンを利用します。音声データのピッチ、トーンなどからその人の気分を喜怒哀楽に分類するというもの。物理的な特徴量から感情を測定します。ピッチやトーンを使って感情認識を行うので、どの言語でも測定可能です。


会場での音声を感情認識していました

富士通ロボットクラウドプラットフォームはロボット以外のデバイスでも利用可能ですので、各種デバイスから取得した様々なデータから私たちの日常生活を便利にアシストしてくれるようになるかもしれません。


ユニボ君以外にもスマホやインターフォンなどの他のデバイスでも利用可能です


インタラクティブプロジェクション

インタラクティブプロジェクションの展示です。こちらは富士通のロボピン(RoboPin)が観光案内をしてくれます。


お、ロボピン君!

まずはスマートフォンでログインを行います。今回のデモでは、人間の目を使った虹彩認証でログインをしてみます。無事ログイン出来るとQRコードが表示されますので、こちらをロボピンにかざします。


スマホの画面にうっすらと2つの丸が表示されています。ここに自分の目を合わせてログインをします

ロボピンが両手を広げた後でロボピンにQRコードをかざしてください」と表示されたので、そのとおりにしてみます。



ロボピン君の状態でユーザに動作を示す方法がいいですね

ロボピン経由でQRコードを使った本人認証が完了し、観光案内がスタートします。テーブルに「ロボピンが喋り終わった後マラソンの地図を置いください」とあるので、点線の場所に地図を置いてみましょう。


地図を置いたら観光スポットが投影されました

すると地図に画像が投影されたので、その画像を触ってみることにします。


投影された画像を触ると色が変わりました

触れると案内文が表示されました。何も無かったテーブルの上がタブレットのようになりました

マラソン大会に来た方への観光案内が表示されました。



どうしてテーブルに文字が投影されてその文字を押すと反応するかというと、ロボピンとともにプロジェクター、カメラ、センサもセッティングされており、これらが連携しているからです。


ロボピン君の上にはセンサーとカメラがありました

プロジェクターも設置されてました

ロボピンとインタラクティブプロジェクション技術を使うと、直感的に様々なことが行なえるので、デジタルが苦手な方でも違和感なくやり取りが行えることでしょう。

ABOUT THE AUTHOR / 

北構 武憲
北構 武憲

本業はコミュニケーションロボットに関するコンサルティング。主にハッカソン・アイデアソンやロボットが導入された現場への取材を行います。コミュニケーションロボットやVUI(Voice User Interface)デバイスなどがどのように社会に浸透していくかに注目しています。

PR

連載・コラム