サイバード様にご招待して頂いて、5月31日に開催されたVoice UI Showに参加しました。
イベントレポートはロボスタに公開されているので、こちを読んでいただくのが分かりやすいと思います。
イベント所感
企業のスマートスピーカーやスマートディスプレイへの取り組みの事例や活用事例が紹介されました。また、マネタイズ手法として、イベント開催の同日から開始されたAlexaのスキル内課金がAmazonから紹介されました。
会場ではスキルのデモを観ることができて、サイバードが開発した公開したアタック25のスキルもありました。
ビジネスイベントなので、企業のメインビジネスとの関わりやマネタイズに関する考え方がセッションの主題です。個人的に興味の強いVoice UIのUXを主題としたセッションはありませんでしたが、ランチディスカッションでは実例を出して話題に上ることがありました。
たとえば、以下のようなことです。
- だらだらと読み上げを行わない
- 書き言葉と話言葉は違う
- 相手の期待を考えて会話シナリオを検討する
私がgihyo.jpに書いた「優しいUI~ボイスユーザインターフェースで変わるコト」でも同じようなことは書いているので、みなさんと考え方は変わらないと感じたのと苦労するは同じ場所だと感じました。
大きく違うところがあるとすれば、Amazon Echoがプラットホームとなっているためか、音声認識の認識間違いや音声合成の読み間違いを回避する工夫や苦労は語られなかったところでしょうか。私の話は10年以上も前の話ですが、UXと同じくらい音声認識と音声合成に苦労しました。ただ、gihyo.jpに書いたものは、私の古い経験を元に書いたものです。これを私の方が早かった言いたいのではなく、結局、使うのは人間なのでUXに関わる部分はいまも変わらないと感じました。
ただ、逆の見方をすれば新しい考え方が出ていないとも言えます。
現在は、スマートスピーカーやスマートディスプレイなどのデバイスが誰でも購入できるようになり、音声でコンピュータと接する敷居が低くなりました。先で触れたUXは、多くの人が音声でコンピュータと接する機会が少ない頃のものです。
Alexaのスキルを使ってマネタイズに関する道筋が見えて、多くの人がVoice UIが取り組みはじめプロダクトアウトをしているので、Voice UIのUXに関する新たな考えがそろそろ登場する期待が感じられたイベントでした。
[amazonjs asin=”B07KD87NCM” locale=”JP” title=”新登場 Echo Show 5 (エコーショー5) スクリーン付きスマートスピーカー with Alexa、チャコール”]