「IBM BluemixをPepperをつないでみよう」が開催されました。

「Bluemix」と「Pepper」をつなぐと何が出来るのか?

10月31日に箱崎にある日本IBMさんで「IBM BluemixをPepperをつないでみよう」というイベントが開催されました。

今回のイベント概要は以下の通りです。

【イベント概要】

このイベントはご自分のPepperに、Bluemixをつなぎこんでみたい、という方向けのイベントです。

Webサービスの開発難度を大幅にさげることができるBluemixですが、「Pepperと連携させる」ということにクローズアップしたワークショップは初めての試み。

11月5日(土)〜6日(日)に開催を控えた、特大ペッパソンの参加を検討されている方、ご自分のPepperアプリにBluemixのサービスやWatsonなどIBMのサービスをつなぎこんでみたいという方はぜひご参加してみてください。



上記の様に、特大ペッパソンでは「Bluemix」がAPIとして提供されるということもあり、このイベントで一足先に「Bluemix」と「Pepper」を繋げると何がどの様なことが出来るかということを知りたいという方が大勢参加されていました。


20161031-IMG_3883
主催者からのご案内に続き、ソフトバンクコマース&サービスの松尾氏が登壇されました。


20161031-IMG_3887
松尾氏からは「Bluemix」の説明。


20161031-IMG_3903
「Bluemix」の中にある「Watsonサービス」も説明されていました。
この中から、後のワークショップ&デモで使われるサービスもありました。


20161031-IMG_3908
続いて、日本IBM クラウド事業総括エコシステム・デベロップメント 主任ITスペシャリストの宋氏が登壇。


20161031-IMG_3911
「Bluemixの環境構築」ということで、Node-REDの環境構築をして、ランタイムが4つ入っている状態まで持っていきます。


20161031-IMG_3920
実際にIBMの担当の方と一緒に環境構築を出来るということはなかなか無いですし、つまずいても懇切丁寧に設定の手伝いをされていました。


20161031-IMG_3924
続いて登壇されたは、スマートロボティクス ソフトウェア・ソリューション部 部長の川田氏。
実際にサンプルアプリを使って、解説をしていきます。


20161031-IMG_3936
Node-REDを使ったサンプルアプリケーションの一覧です。
こちらは、参加者の方はダウンロードでき、実際に試すことも出来るようになっていました。


20161031-IMG_3938
先ずは簡単なHTTPリクエストから。
適当なURLを設定して、そのサイトの情報を取得してみます。


20161031-IMG_3942
「Pepper」自身は特に動きはありませんが、「Choregraph」のログにはヤフージャパンのサイトのHTMLが表示されたことで、HTTPリクエストが動いていることがわかります。


20161031-IMG_3950
続いて画像をNode-REDに送るということを行います。
その際は「Watson Visual Recognition」を使っていきます。


20161031-IMG_3958
サンプルの中にある花の画像を読み込ませた結果、ログビューアには「植物」と出ました。
きちんと画像認識出来ていますね。


20161031-IMG_3961
次は「Pepper」のカメラで撮影されたもをタブレットをに表示し、その画像が何かを認識し、Speach To Textで「Pepper」に喋らせてみます。
顔がちょっと上を向いてしまったので、蛍光灯ばかりの写真になってしまいました…。


20161031-IMG_3963
具体的なNode-REDの繋げ方はこの様な感じです。


20161031-IMG_3967
何と「Pepper」は『光』と回答。
確かに蛍光灯は『光』ですね。うーん、スゴイ。


20161031-IMG_3971
バイナリーデータをNode-REDからダウンロードをしてみましょう。
ここでは、事前に用意されていたテキストデータを「Watson Text to Speech」で音声合成し、「Pepper」で再生させてみました。
「Pepper」が「Watson」のCMの声で話しました。


20161031-IMG_3977
WebSocket通信を使って、「Pepper」に言葉を話してもらいました。
WebSocketを使うことで、サーバー側からもプッシュすることが出来る様になります。


20161031-IMG_3979
外部API呼び出しをやってみます。IBM社内の勉強会でありながら、「Google Cloud Vison API」を呼び出してみました。


20161031-IMG_3981
頭を触ったら写真を撮ってサーバーに送って結果を喋るというサンプルプログラムです。


20161031-IMG_3982
入館するときのゲストパスを掲げて画像認識をしてテキストをちゃんと認識して発話しました。


20161031-IMG_3987
直接「Bluemix」APIにアクセスするサンプルです。WebSocketでライブで音声を認識する機能があるので、「Pepper」に喋った言葉をオウム返ししてもらいましょう。


20161031-IMG_3993
頭を触ったら開始です。

ログを見てもらえればお分かりになると思いますが、上が認識した言葉。
下の部分が返した言葉となります。「こんにちは」と言ったのが「今日(きょう)は」になってしまいましたが、レスポンスも非常に早く対応が出来ました。


20161031-IMG_3994
サービス提供のSDKを使用する方法の説明に移ります。


20161031-IMG_3995
具体的に外部モジュールの取組みの注意点、手法なども説明して頂けました。


20161031-IMG_3998
最後に「Pepper」のタブレット活用方法について解説をして、終了となりました。



充実の内容

全体で約2時間の勉強会でしたが、環境構築から具体的なデモまでと充実した内容でした。

もちろんもっと様々な事が「Bluemix」を使えば出来ると思いますが、これをきっかけに「Pepper」と「Bluemix」を使って色々なことが考えることが出来るのでは無いかと感じた勉強会でした。

ABOUT THE AUTHOR / 

ぱっぺー☆あさひ

衛星放送、インターネットなど時代の先端の端っこにいて、今はロボット業界に身を置いています。 ロボットスタートでは広告営業をメインにしていますが、ロボティクススーツを着ることでロボット型人間『ぱっぺー』に。 近頃頑張っているアイドルを見ると泣いてしまう。「HKT48」を推しつつも「NGT48」「=LOVE」が気になっています。最近は取材の予習で聴いた「夢みるアドレセンス」の楽曲の良さに驚く。 長年の夢だったTBSラジオデビューを果たしました。 誕生日の夜は今年も一人かも知れないと不安しかありません。

PR

連載・コラム