VUI と 魔法の呪文

朝起きたら、スマートスピーカーに話しかけて部屋の明かりをつける。目覚ましのアラームはセットしないけど、決まった時間になったら天気予報をしゃべるように設定してある。
洗濯機のタイマーをセットして、コンタクトレンズをつけるところまではルーティーンだけど、そのあとは臨機応変のマルチタスクだ。お湯を沸かしているのを忘れないように、スマートスピーカーに話しかけてタイマーをセットする。野菜の茹で時間が分からなかったらきく。

「 ねえGoogle、ブロッコリーの茹で時間は? 」
「 白ごはん.com  のサイトにはこう書かれています。沸いた状態でブロッコリーを入れ、茹で時間は 2 分を一つの目安として、大きい場合は... 」

おっとバターがなくなりそう、すぐに買い物リストに追加する。燃えるゴミの日には「 ゴミ出しはしましたか? 」と教えてくれるし、出かける時間になれば今日も「 そろそろお出かけの時間です、行ってらっしゃい 」と知らせてくれた。

多少のエンジニアリングが必要だが、我が家の生活スタイルに合わせてカスタマイズされたスマートスピーカーはもはや無くてはならない存在になっている。

 VUI と CUI

スマートスピーカーはデジタルエージェントを音声で操作する VUI ( Voice User Interface ) で、対話型 UI とも言われている。使い始めた当初、スマートスピーカーに対してイメージしていたのは、ナイトライダーに出てくる KIT とか、ガンダムのハロとか、ジリオンのウパウパみたいに、ちょっと擬人化されたものだった。けれど使っているうちに、これはちょっと違うな、と思うようになった。

確かにGoogle にしても、 Siri にしても、ある程度コンテキストを把握しているかのような反応をするし、たまにウイットに富んだジョークも返してくれる。でも、それはなんだか設定されたプロセスを順次自動で再生しているような対話だ。

この感じどこかで、と思い巡らせて浮かんだのは、プログラム言語 Python で使ったりするインタラクティブシェルだった。

インタラクティブシェルとは、スクリプト言語を対話的に使うことができる、キャラクタベースのシェルのことだ。画面に命令を記述し、Enter を押すと結果が表示される。

たとえば

print('Hello World')

「 Hello World って出力して 」と入力すると

Hello World

と返ってくる。

help(print)

「 print について教えて 」と入力すると

Help on built-in function print in module builtins:

print(...)
    print(value, ..., sep=' ', end='\n', file=sys.stdout, flush=False)
    Prints the values to a stream, or to sys.stdout by default.
    Optional keyword arguments:
    file:  a file-like object (stream); defaults to the current sys.stdout.
    sep:   string inserted between values, default a space.
    end:   string appended after the last value, default a newline.
    flush: whether to forcibly flush the stream.

と print 関数 についての説明が返ってくる。
そして記述が間違っていると「書き方まちがってない?」と赤字のエラーをはく。

スマートスピーカーにおけるエージェントとの会話はまさにそんな感じなのだ。Google home もエラーメッセージみたいなことをよく言っている。

「 すみません、よく分かりませんでした 」


音声コマンドを起点にして、参照できるデータから適切なものを返したり、命令されたタイミングで予め設定されたタスクを自動でこなしたり。VUI は極めて CUI ( Character User Interface ) 的だ。スマートスピーカーは現状、音声で操作するインタラクティブシェルだ。

魔法をかける

「 ねえ Google、電気をつけて 」

で部屋の明かりがつく。でも道具を使っている気がしない。道具によって拡張された自分を感じない。これはただの行為の自動化で、その起点となるものが音声なだけだ。

VUI のデジタルエージェントが作るのは、何らかの行為を自動でやってくれる、いくつもの仮想のボタンが並んでいて、それを音声コマンドで発動する世界だ。それは道具と行為の創造性を奪われた未来だ。自動化はとても便利なことだけれど、テクノロジーの発展の先に見るものとしてそれはふさわしくないように思う。

ではどうすれば、道具と行為の創造性を取り戻せるだろう。

通常道具は身体の一部を使い、直接、時に擬似的に対象を操作する。けれど VUI はそれを音声で行う。

どうやって音声で操作すればいい?
どんな風にその体験をデザインすればいい?

一つ思い浮かぶものとして、意外に身近な、きっと遊びで誰もが一度はやったことがある手法がある。

それは魔法の呪文だ。
「明るくなれ!」と唱えれば部屋が明るくなる。

実際に何か道具を使うわけではないが、魔法というオブジェクトを使って現実をデザインする。

ジェスチャーも必要かもしれない。ディズニー映画に出てくる魔法使いが、手を動かして魔法を制御するみたいに。

見えない魔法に触れるように手を動かすと、自分の身体が拡張された感覚になる。自動操作ボタンのコマンドではできない、創造性がこの手に戻ってくる。人は魔法を使うために無意味に照明をつけたり消したりするだろう。それはとても道具的だ。

実装するのは難しいだろうか。でもきっとそんなに遠くない未来に実現されそうだ。まだ今の枠組み中で考えすぎだろうか。もっと良い方法がある気がする。

さよならエージェント


そう考えていくと、そもそもスマートスピーカーにエージェントは必要ないのかもしれない。今は過渡期で Google や Siri がいるけれど。

いつかコンピューターからユーザーインターフェースが消えていくように、スマートスピーカーも壁の中にスッと消えていって、呼びかけることもなくなるのだろうか。

電気をつける時の音声コマンドを

「 ねえGoogle、部屋を明るく 」

に変えてみた。
すると少し、魔法っぽい気がした。

* * *

書き手:デザイン部 高取 藍

この記事が気に入ったら、サポートをしてみませんか?気軽にクリエイターを支援できます。

44

Fenrir Designers

Fenrir Designersマガジンを運営しています。 https://designers.fenrir-inc.com/

Fenrir Designers

フェンリルでデザインに携わるスタッフが運営するブログです。
4つ のマガジンに含まれています
コメントを投稿するには、 ログイン または 会員登録 をする必要があります。