【IoT業界探訪vol.13】脳を楽にするキーワード、『ヒアラブル』とは-NAINさんにAplayについて聞いてみた-

一日の中でスマートフォンの画面を見ている時間が近年とみに長くなってきている自覚はないだろうか。

内閣府の調べ
によると一日の中でスマートホンの利用している時間は高校生で170分。保護者は96分。

女子高生にフォーカスすると、6.1時間とある調査結果もあるほどだ。

このようにスマートフォンの画面に注視し続ける生活が「『便利』で『豊か』なものではない」事に関しては異論がないが、果たしてその解決策としてはどのようなものが考えられるのだろうか。

その一つの答えがスマートフォンからの通知やメッセージの応対を音声で行うことができる「ヒアラブルデバイス」APlay(エープレイ)だ。

その開発ストーリーや未来について、開発元の株式会社NAIN、代表取締役 山本 健太郎氏にお話を聞いてみた。




APLAYとは

様々な機能が搭載されているうえに、非常に軽量ながら音質も良く、「イヤフォン」としての完成度も高い。

一見なんの変哲もないBluetooth イヤフォンに見えるが、これがヒアラブルデバイス、APLayだ。

特徴としてはAndroid5.0以降の全アプリから送られるテキスト通知を音声で読み上げてくれる「通知機能」。これに加えて、各種のメッセンジャーツールへの音声返信にも対応している。(現在は、Android 版のみ)

一言二言の返信であれば、スマホを見ずに済ますことができるのは、仕事やスポーツなどで集中を切らせたくないタイミングなどで重宝する。だが、それ以上に、カレンダーの予定などを読み上げてくれる通知機能が非常に便利だ。

出勤時などに、一日の予定を読み上げてくれるのは、ちょっとした秘書のようなもので、なかなかに使い心地が良かった。

通知の読み上げ設定画面。ユーザーごとに気になるアプリが異なるためか、非常にきめ細かく設定ができる

とはいえ、現状Bluetoothイヤフォン市場は、ほぼ飽和状態ともいえる。
そこにAplayで乗り込んだ山本さんに、恐れはなかったのだろうか。
開発の経緯から今後の展望、今後のモノづくりに方向性などについてお話を聞いてみた。



APlay、発想の原点とは

ロボスタ編集部

APlay、面白い製品ですね。
今日、御社のオフィスまで、歩いて来る時に使っていたんですが、SNSやGoogleマップからの通知を全く気にせずに来ることができたので、表参道の街並みが非常によく目に入ってきました。
歩きスマホをしていなくても、気にしているだけで意外と視界を奪われているのかもしれませんね。
こういった製品を作るアイデアは、どういったところから出てきたんでしょうか。


山本氏

私はもともとパイオニアでカーナビの開発や企画をしていたんですが、その時の経験は大きいかもしれませんね。
現在、非常に多くの情報がカーナビの画面に集約されていますが、やはりスピードメーターなどは運転席にありますし、景色も流れていきますよね。
その方が自然だし、体にとっても楽です。
スマートフォン中心の生活は、言ってみれば、スピードメーターはおろか、外の景色までもスマホの中に表示して「便利でしょう?」と言っているようなものですよね。
でも、欲しい情報が風景の中などにうまく溶け込んでいることのほうが人間らしいんじゃないかとおもったのはあります。


ロボスタ編集部

たしかに、現状は、まだまだスマートフォンに情報が集約されていく方向ですよね。
IoT機器にしてもセンシングした情報の閲覧や操作などの比重のほうが大きいですから、表示先であるディスプレイをみる頻度は上がる一方になっています。

特に通知頻度が増加したせいで、スマホを常に取り出しやすい位置にしまっておかなくてはいけない。っていうのは本当に面倒ですよね。


山本氏

そのわずらわしさから「ウェアラブル」に注目してウォッチ系の開発などもやっていたんです。

コミュニケーションの量にしても、メッセージアプリでやり取りする内容はスマートウォッチで確認できる程度のもので十分じゃないか、と思っていたので。

ただ、実際に使って見ると「ちょっと出すのが速い」という程度でした。


ロボスタ編集部

たしかに、スマートウォッチは着信を取り逃しにくい、というのはいいですが、「着信相手が誰なのか」以上の情報を知ろうとなると、スマホを出した方が早い。
って思ってしまいますね。



代表的なヒアラブル端末、ソニーのXperia Ear(左)とBragiのTHE DASH(右)

山本氏

そんなことを考えている冬のある日、スマホに着信がありました。手袋をしていてスマホを取れない。厚着で手首も隠れていてスマートウォッチも見えない。というシチュエーションです。
ただ、その時にイヤフォンはしてたんですね。

その時に、「耳」ならあいているじゃないか。
これからはヒアラブル(hearable)だ。と思いました。

おそらく早くからスマートウォッチに注目していたような先進的な人たちは、ほぼ同時期にその限界と、「ヒアラブル」というキーワードに気付いて、「自分たちの目指すUXを実現できるハードを作ろう」と思ったんじゃないですかね。

APlayとほぼ同時期にXperia EarBragiのTHE DASHなどが発売されましたからね。
注目している人も多いですし、今後伸びていく分野だと思っています。


反響と次期製品について

ロボスタ編集部

この製品の特長はいろいろあるかと思うんですが、最も大きな特徴というとやはり、スマートフォンを取り出さないでも済むという点。
しかし、それ以外にも、意外とそれにまつわる見逃せない特徴があると思うんですよね。
例えば、価格面。
これだけの機能が詰まっていて6千円っていうのはすごいと思いました。


山本氏

スマートウォッチやスマートフォンの原価は1/3以上の値段がタッチスクリーンに占められているんですよ。それに比べると、サウンドドライバなどにお金をかけても、上限がありますよね。
また、ambie Sound earcuffsのように、生活の中で使う際に、必ずしもイヤフォンに音質を求めているとは限らないと思うんですよ。
そう考えると、コストは抑えられますよね。


耳孔を塞がないことで、周囲の音へのBGMとして音楽を鑑賞するスタイルを提案したイヤフォン、ambie Sound earcuffs。ソニービデオ&サウンドプロダクツ株式会社とベンチャーキャピタルのWiL,LLC.が共同出資したambie(アンビー)株式会社による製品。

ロボスタ編集部

そのおかげで使い方や性能がまだイメージできていないものに対して払える額のなかに収められている感じがしますね。

乱暴な言い方だけれども、これなら壊れてしまったり「ハズレ」だったり、機能が増強された新製品が出てしまったり、という黎明期の製品にありがちなことがおこったとしても、何とか我慢できる気がします。
とはいっても、結構頑丈ですし、音も結構いいですけどね。


山本氏

音に関しても、コストは抑えるとはいっても、チューニングをきちんとやっていますからね。
中国で、色々な会社さんのBluetooth イヤフォンを作っている工場で生産しているんですが、現地張り付きでやり取りしてました。


ロボスタ編集部

なるほど、やはりご苦労されてますね。
あとは、やっぱり、声によるメッセージの返信ですね。これはなかなか面白かったです。
インタビューするときに使用感がわからないとお話にならないなーと思って、事前に購入して試してみたんですが、仕事中に来たチャットに対して短く返答していく分には十分でした。いちいちスマホやウィンドウの切り替えをしなくてもいいのはすごく楽です。

もうちょっと長い文章も認識してくれれば、とも思うんですが、普段のチャットが長すぎる方なんで、このくらいに規制されていた方がいいのかもしれない。とも思いました。


山本氏

そのあたりは、5月にクラウドファンディングを開始しようとしているAPlay Pulseに搭載されている、ボイスメッセージを録音、送信する機能のほうで対応できるかもしれませんね。
片耳だから、デザイン的にも仕事中に使いやすいですし。



APlayに新たにラインナップされたAPlay Pulse。従来製品に比べコミュニケーション側に振った機能を持つ。Alexaとの連携など、楽しみな機能が多い。

ロボスタ編集部

たしかに、これなら音楽を聴いているようには見えないから仕事中でもつけやすいですね。
ただ、ボイスメッセージは、かなり多くのチャットアプリに実装されてますけど、使ったことがないんですよね。
どんなふうに使われているんですか?


山本氏

チャットと電話の間くらいの感覚ですね。わりと楽ですよ。
今のところは、まだAPlayのアプリを使っている人同士のコミュニケーションにしか使えないんですが、ある程度の即時性が必要でニュアンスが伝わった方がいいときに使ってます。
例えば、仕事で「PCを再起動すれば直るよ」なんていう、ちょっとした連絡をする時ですね。
何かに集中しているときでも、メッセージの内容を把握して、返信するかどうかを決める事ができる。
お互いの仕事の邪魔にならないような連絡手段、という感じでしょうか。


ロボスタ編集部

なるほど、チャットと電話の間という立ち位置はあるかもしれませんね。
ロボットではSTT(Speech To Text)の技術は非常に重要なんですが、人間同士なら必要ないですしね。
ニュアンスや声色も伝わるし、変換ミスを気にしたりする必要がない。
お互いに送れるタイミング、受け取れるタイミングでコミュニケーションができる。
というのはのはいいかもしれません。


山本氏

作業中などに集中しているものから視線をはなさずにコミュニケーションする。
というだけでなくスマートフォンを見ないでも生活できるようにする、というのがAPlayの最終的な目標ですね。
Siriも音声インターフェイスですが、そこまでの存在にはなり得てない気がするんです。結局画面操作に戻っちゃうことが多いんですよね。
なので、将来的には完全に音声だけの世界でも操作できるようにしたい、と思ってます。


今後の展開について

ロボスタ編集部

APlayの最終目標をお聞かせいただきましたが、その世界観はどのようなものになっていくんでしょうか。


山本氏

そうですね。
新製品ではAlexaにもつながっていますし、これでスマートロックなど他のサービスと連携できるようにしていきたいですね。


ロボスタ編集部

Alexaは音声認識能力が強いだけでなく、連携できるサービスが多そうですからね。
楽しみですね。


山本氏

あとはアプリ連携に関してもopenAPIを作ってます。
まだclosedβですが、Androidの勉強会などで使ってもらったりしてます。
内容としてはアプリが通知を出すと、APlayで音声操作ができるようになるような、音声認識の実装が簡単になるAPIですね。
もうすこし使いやすくしていく予定ですが、こういったアプローチから、音声入力デバイスをより一般的にしていこうと思っています。

また、他にも「簡単に音声入力を実装できるデバイスとして使えるといいな」という意見をいただいています。
例えば、Arduinoに対して簡単に音声コマンドを送れるようなデバイスがあれば、音声を使ったサービスがもっと色々と出てくるかもしれませんから。


ロボスタ編集部

特に日本ではまだまだ音声入力によるサービスを使う習慣があまりないので、面白いサービスができることで一般的になってくれるといいですね。
ボイスメッセージや音声操作など、新しい習慣をユーザーに身に着けさせるようなサービス、UXを作るのは非常に大変そうですが、頑張ってほしいです。


山本氏

現状のBluetoothイヤフォン市場の中で、高音質だとか、ノイズキャンセリング、防水性といった機能の付加で戦っていくのも大変だとは思いますが、それとは違った大変さがありますね。

新しいUX、っていうところでいえば、正直、今までのUXってリモコンが出てきてから大きな変化していないと思うんですよ。
昔、テレビのチャンネルをガチャガチャとひねっていたのが、離れたところからコントロールできる「リモコン」がでてきた。
たしかにこれは便利になったと思います。
ただ、そのあとは、ボタンや機能が増えたり、押すものが機器専用のリモコンからスマートフォンにかわっただけで、「ボタンを選択して押すというインターフェイス」からは変わっていない。



スマートフォンになっても、機能やレイアウトの自由度が上がっただけで、リモコンから本質的な変化はないのではないのかもしれない。

ロボスタ編集部

たしかに言われてみるとそうですね。
PCのブラウザなどのUIに関してもそうかもしれません。


山本氏

でも、人間はボタンを押して操作をするために生まれてきたわけじゃないわけで、本来なら、そんなことをやる必要はないですよね。
例えば、自動ドアを「操作」していると考える人はいないように、もっと当たり前のように色々なことが自動化されれば、もっと楽しいことに時間を使うことができるはずです。
AIやIoTなど、その種となる技術は現状でも出てきています。


ロボスタ編集部

たしかに、メッセージを送るだけでも、内容次第でメールがいいのかチャットがいいのか、電話がいいのか、ボイスメッセージがいいのか。
今すぐ相手に届くのがいいのか、翌朝がいいのか、相手の状況はどうなのかによっても、様々な選択肢があります。
さらにそれぞれの方法に合わせた内容の推敲まで。
こういったことがAIなどの技術で「ラク」になったらいいですよね。


山本氏

もともと、NAINという社名は「Network AI Nodes」からつけたんですが、インターネットにモノがつながり、その先にAIが当たり前のようにつながっている世界になれば、今の「機械に振り回されている生活」から解放されることができるんじゃないかと思うんです。
何も操作をしないでも自分の欲しいサービスが脳に楽な形で提供される世界。
その実現のためにはもしかしたら立体的で高解像度な音響が必要かもしれないし、ARのような形での視覚情報へのアプローチが出てくるかもしれません。
今後、色々なチャンネル、デバイスが出てくるんじゃないかと思いますね。


ロボスタ編集部

その中で特に重要な要素は何でしょうか。


山本氏

やはりウェアラブルであることでしょうね。
いまはスマートフォンほど目立ってはいませんが、時計型、眼鏡型、イヤフォン型など、様々なタイプのウェアラブルな機器をだれもがいつの間にか携帯するようになっていくんじゃないですかね。
特にヒアラブルデバイスは意識せずに持っている方も多いでしょうから、90%ぐらいの人はウェアラブル機器を使いこなすようになってくるでしょう。
ユーザーが身に着けている多様なデバイスに合わせて、適切な情報の入出力をすれば「意識的な操作」から解放されることができるのではないでしょうか。

スマートフォンに来た通知を読み上げる、というのは小さなサービスかもしれませんが、視覚以外の様々なチャンネルがあることを意識させるきっかけにはなるんじゃないかと思います。
そういう事が続いていけば、今までスマートフォンですべてやってきたことが徐々に違うデバイスへと置き換わっていくでしょう。
そんな時代に向けて自分たちのサービスを作っていきたいですね。


ロボスタ編集部

ヒアラブルをきっかけとして、AIが当たり前に生活に入り込んでいく世界まで見通し、その中でどのようなサービス、製品を提供していくのか。
面白いお話を聞かせていただけて楽しかったです。
また、新製品やサービスが出るタイミングでお話を聞かせてください。
ありがとうございました。





スマートウォッチやヒアラブルデバイスを常に身に着けている山本氏。

シンプルな機器が、AIやサービスとつながることで、今後、より豊かな生活が送れるようになっていくだろう、という漠然としたイメージはあったが、今回話を聞くことでその輪郭がくっきりしたものになってきた気がする。

人間の五感をフルに生かしてより自然な形で情報を「楽に」処理できるようになることで、今後どのようなサービスが生まれていくのか。
今後の生活スタイルの変化が楽しみだ。



僕はこう思った

小さな製品から大きなサービス、世界観につながる話を聞くことができて、非常に内容が濃いインタビューになったと思う。
ただ、この内容と同じくらいに、中国でのモノづくりや日本社会との違いについてお話ができたのが面白かった。
従業員数10人に満たない会社で次々と新しい製品やサービスが出てくる仕組みについては、機会を見て記事にできればと思う。

ところで、この記事を書いている途中で山本さんから「PARCOのクラウドファンディングサイトでのモデルさんプロデュースのプロダクト」のご案内をいただいた。

こんなキラキラした、趣味と実益が一致した仕事があるものなのか。世の中ってすごい。

ABOUT THE AUTHOR / 

梅田 正人
梅田 正人

大手電機メーカーで生産技術系エンジニアとして勤務後、メディアアーティストのもとでアシスタントワークを続け、プロダクトデザイナーとして独立。その後、アビダルマ株式会社にてデザイナー、コミュニティマネージャー、コンサルタントとして勤務。 ソフトバンクロボティクスでのPepper事業立ち上げ時からコミュニティマネジメント業務のサポートに携わる。今後は活動の範囲をIoT分野にも広げていくにあたりロボットスタートの業務にも合流する。

PR

連載・コラム