2017年6月15日木曜日

ひとと会話するMAGELLAN BLOCKS

人とコンピュータの接点が、キーボードとディスプレイというのは、いつかきっと昔話になると思う。ひとが意思を伝える、とても大切で、自然な方法、会話が、それに置きかわるんじゃないか。



ぼくたちが提供しているMAGELLAN BLOCKSの新機能をテストしていると、そう思わずにはいられなくなる。

新しく発表された機能は、Googleが提供しているサービス「api.ai」との連携機能だ。
api.aiは、Actions on Googleという機能と連携できる。

Actions on Googleというのは、Google Assistantに自分のサービスを連携させる機能なので、つまりGoogle Assistantと連携できるサービスを、BLOCKSでめちゃくちゃ簡単に実現できるようになるというわけだ。

api.ai自体は、Facebookメッセンジャー、Skype,Slack、LINEなどとも連携できるので、テキストベースのチャットボットにも、同じ仕組みで対応できる。

で、このapi.aiなんだけど、人が尋ねた文章から、必要な項目を抽出してBLOCKSに渡し、そこで処理された結果を回答文にして、音声やテキストで応答することができる。

例えば、電力需要を予測するやりとりを作りたいとする。

需要予測するためには、予測する地域と日にちが必要。

例えば「東京の明日の電力需要は?」というのが、想定される質問だ。

でも、実際の会話となると、「電力需要なんだけどさ。」みたいに必要なことが抜けてしまうのが普通。


なので、ざっと想定される文章を定義して、そこで変更される可能性のあるキーワードを指定する。この場合「東京」と「明日の」というのがそれだ。

で、「東京」という部分には、都市名が来て、「明日の」というのは日付に関する言葉がくると定義しておく。ありきたりな言葉だったら、api.aiが自動的に判断してくれるけど、自分で設定することもできる。例えば、「電力」というところが違う言葉になるかもしれないと指定することもできる。


ここでは、「東京」と「明日の」というところを指定して、それが必須項目としてしていしておくと、会話の中で抜け落ちていると聞き返す設定ができる。

例えば、日付が抜けていると、「いつの電力需要ですか?」と設定できる。

こういう設定をしておくと、BLOCKSには日付と地域の情報が渡ってくるので、それを使って独自に学習させた機械学習モデルを使い需要予測を行うことができるのだ。


そして予測した結果から、回答文を組み立てると、文章や音声になって相手に返される。

例えば自宅にあるGoogle Homeに「〇〇サービスを呼び出して」と言うと、BLOCKSで作成されたサービスにつながり、「〇〇の在庫は明日まで足りるかな?」と聞くだけで、明日の需要予測を行い、在庫数との関係から回答をするというようなアプリを動かすことができる。しかも、ほとんどプログラムを作らないで完成するんだ。




会話するBLOCKS。ひととコンピュータの接点を、より人間らしく。

一般公開は、秋頃を予定しています。今のうちから色々検討したい人は、ぜひ連絡をしてください。

0 件のコメント:

コメントを投稿