Google Assistant

2018年12月07日

Google Assistant Service プログラミング事始め

はてなブックマークに登録

前回の記事では Google Assistant Library ベースのプログラミングを通じて Google アシスタントの各機能を取り回す試みを行いました。今回はもうひとつの Google Assistant SDK である Google Assistant Service に目を向けてみます。

  • 当ブログ記事「Google Assistant Library プログラミングを楽しむ 」より
    Google LLC は Google Assistant SDK for devices として「Google Assistant Library」「Google Assistant Service」の二種類のセットを提供しています。前者は高水準で稼働環境は狭め、後者は低水準で広範な稼働環境に対応しており、この周到な構成に Google の本気度が窺えます。現時点では一日あたりのリクエスト数に制限はあるものの個人でも無償で利用できることが大きな魅力です。

Google Assistant Service と稼働環境

前回も引用した Google Assistant Library と Google Assistant Service の比較表を再掲します。2018年12月時点の公式記事より)

Google Assistant Service の最大の特長は、このように gRPC 対応のプラットフォーム+対応言語環境全般で利用可能であることです。現時点では Google Assistant Library ほどには多機能ではないものの、稼働環境が広く Windows PC や Mac はもとより小振りで消費電力が小さく IoT フロントエンドとして有用な Raspberry Pi Zero / Zero W 系ボードも Google アシスタントクライアントとして利用できることに関心を誘われます。

Google Assistant Service と Google Assistant Library の機能面での違いは SDK 全体のリリースノートを追うことで手早く俯瞰できます。

両者の機能差は今後変化する可能性がありますが、個人的には 2018年12月時点で Google Assistant Service 側にはない要素のうち実用面とのかねあいにおいて以下の三点に留意しています。

  1. Google Assistant Library とは異なりウェイクワードの待機・検知に対応していない
  2. ニュースの読み上げや Google Podcasts に未対応
  3. アラームに未対応 (リマインダは設定可能)

なお、上記 1. は外部の Hotword Detector との連携(後述)によりある程度補うことが可能です。

※余談ながら、Google Home デバイス実機とは異なり今のところ Google Assistant SDK ベースのプログラムの所作に google-home-notifier を絡ませることはできません。たしかに 8009 番ポートを使ったキャスト機構にはハードウェア側要件としての印象が強いものの、google-home-notifier を あち こち で利用しているファンとしてはちょっと残念です。

pushtotalk.py プログラムのこと

Google Assistant Service をセットアップ後の googlesamples/assistant/grpc/ フォルダには「pushtotalk.py」プログラムが配置されます。 このプログラムは名前の示すように Google Assistant Library に含まれる「hotword.py」とは異なり、ウェイクワード(ホットワード)の音声ではなく 'Press Enter to send a new request...' の CUI メッセージを添えた click.pause() API で物理的なトリガーを待って Google アシスタントとの対話を開始する内容で実装されています。
セットアップずみの SDK ディレクトリ下での pushtotalk.py の実行方法は以下の要領です。引数で指定したプロジェクト ID とモデル ID はホスト側へ記憶され、変更の必要がなければ次回以降は省略可能です。

$ pwd
/home/t/wk/GoogleAssistant

$ ls
env

$ source env/bin/activate

(env) $ googlesamples-assistant-pushtotalk --project-id [設定ずみのプロジェクトID] --device-model-id [設定すみのモデルID]

pushtotalk.py を手元の複数の環境で実行した様子の動画を以下に示します。

Windows
Mac
Linux (32bit)
Raspberry Pi 3 Model B+
Raspberry Pi Zero W

上の動画のRaspberry Pi 3 Model B+ / Zero W には手持ちの以下の以下のマイクとスピーカーを写真の要領で接続しています。

今回は、前回の hotword.py と対照的なこの pushtotalk.py を試作の下敷きとします。

Hotword Detector について

前掲の Google Assistant Service 側未対応の機能のうち、実用上の影響がもっとも大きいのはウェイクワードの待機・検知ができないことでしょう。Google Assistant Library プログラムにおいては Google Home デバイスと同様にハンズフリーでアシスタントとの応酬が可能であることを考えあわせると淋しく感じられますが、この点は外部の Hotword Detection ソフトウェアを併用することで補うことができます。

ただし、外部の Hotword Detector との連携は Google アシスタントネイティブでのウェイクワードサポートではなく、あくまでも Assistant API を呼び出すためのトリガーを外側に用意する手立てに他ならないため以下の注意が必要です。

  • ウェイクワード設定の柔軟性や認識精度はすべて Detector 側の要件である
  • Google アシスタントの発話中にウェイクワードで介入することはできない

こういった事情を理解した上で Hotword Detector を併用すれば、間口の広い Google Assistant Service を様々な環境でより便利に利用することができるでしょう。

Porcupine と Snowboy

現時点でのスマートスピーカー向きの代表的な Hotword Detector として、Picovoice (カナダ系)による Porcupine と、 KITT.AI (中国系) による Snowboy が挙げられます。後者はすでに随所で取り上げられていますね。どちらも機械学習に基づく精度の高さ・低負荷・マルチプラットフォーム対応・カスタマイズの柔軟性をアピールポイントとしており、後発の Picovoice は両者の比較記事を公開しています。

手元ではどちらも使い始めてまだ日が浅いのですが、今のところウェイクワードを認識する能力そのものに際立った性能差は感じておらず負荷の度合いについては未検証です。今の時点で把握している両者の一長一短を挙げてみます。

対応プラットフォームの広さ: Porcupine ◎

  • Porcupine
    • Raspberry Pi/ Android/ iOS/ watchOS/ Linux/ Mac/ Windows/ web browsers
  • Snowboy
    • Raspberry Pi/ 64bit Mac OS X/ 64bit Ubuntu 14.04/ iOS/ Android/ ARM64 (aarch64, Ubuntu 16.04)

カスタムウェイクワードへの対応: Snowboy ◎

  • Snowboy
    • 任意のカスタムウェイクワードの作成・使用が可能
    • 日本語を含む主要 15か国語 or "Other" から言語を指定可能
    • 肉声でのモデル作成に対応 〜 モデルはサーバへ保存され別話者分を含め追加学習が可能
    • 操作性のよいブラウザ I/F が提供されている
      (クリックで大きく表示)
  • Porcupine
    • モデル作成には専用の CUI ツール「Porcupine Optimizer」を使用する。同ツールのソースコードは非公開で Windows/ Mac/ Linux 向けバイナリが配布されている
    • ウェイクワードのバリエーションはライブラリに同梱の英単語辞書に含まれる語彙の範囲に限定される。複数単語の組み合わせは可。モデルファイルの作成方法は以下の要領
      $ pwd
      /home/t/wk/Porcupine

      $ tools/optimizer/linux/i386/pv_porcupine_optimizer -r resources/ -p linux -o . -w "OK google"
    • 特定の話者の肉声に基づくモデリング・学習を行うことはできない
    • モデルファイルはプラットフォームごとに独立しており(バンドル分も同様)、Windows/ Mac/ Linux 用以外のモデルファイルの作成には商用ライセンスが必要
    • 作成したモデルファイルには 90日間の使用期限が伴う。再作成に制限はない

手元では今のところ PC では Porcupine、Raspberry Pi では Snowboy の要領で使い分けています。下の動画はそれぞれの動作の様子です。

※ ふたつの動画でのウェイクワード検知時・対話終了時の応答音はいずれも Snowboy の resource/ ディレクトリ下の wave ファイルによるものです。これらが耳に馴染んだため Porcupine との連携においても同じ要領で使用しています

  • 32bit Linux 環境での Porcupine - pushtotalk.py 連携
  • Raspberry Pi Zero W での Snowboy - pushtotalk.py 連携

試作

前回記事での hotword.py (Google Assistant Library) ベースの試作に続き、今回は Google Assistant Service の pushtotalk.py を下敷きにプログラムを作成します。作業上の便宜から開発は PC で行いましたが、Google Assistant Service ベースなので指先に乗るサイズの Raspberry Pi Zero W ボードをはじめ広範な環境で実行可能であることに夢が広がります。オールインワンのダンボールキットも製品化されていますね。

今回はシンプルな切り口として前回の Google Assistant Library 版の各プログラムと同じ動きをするものを作ってみることにしました。Google Assistant Serivice プログラミングは奥が深くまだまだ習作の段階ではありますが、事始めとして取り組んだ内容を以下に掲載します。

1. 指定テキストに基づく音声合成と読み上げ

テーマ: Google アシスタントの音声合成機能を単体で利用する。いわゆる Text to Speech。

前回 Google Assistant Libray 版試作へのリンク

内容

  • プログラムを起動するとテキスト連続入力モードへ
  • エンターキー区切りで入力した任意のテキストがそのままアシスタントに読み上げられる
  • ウェイクワードは使用しない

デモ: 動画 27秒
  

(前回分)
  

考えたことなど

  • 前回と同様、まず TTS を試したいと考えた
  • ここでのポイントは、「音声データではなく任意のテキストで Assistant へ指示を渡す」ことにある。だが、Google Assistant Library に存在する send_text_query API と同等の機能を持つものが Google Assistant Service には見当たらず、現時点で Google Assistant Service プログラミングに関する情報はネットにも乏しい
  • ヒントを探してまず pushtotalk.py をあらためて読む。このコードでの指示と応答の応酬は事前に用意した対話用ストリーム上での start_recording() 〜 stop_recording() を経て start_playback() 〜 stop_playback() を呼び出す内容で巧みなく実装されており、Google Assistant Service においては音声データ以外の方法で Assistant とのやりとりが不可である可能性も頭をよぎった
  • 手を動かすうちに SDK ディレクトリ配下の「googlesamples/assistant/grpc/textinput.py」プログラムの存在に気づいた。コードへのリンクとこのプログラムの実行例を示す
    • textinput.py - github.com/googlesamples
      (env)t@PC-533:~/wk/GoogleAssistant$ ./textinput.sh 
      INFO:root:Connecting to embeddedassistant.googleapis.com
      : こんにちは
      <you> こんにちは
      <@assistant> こんにちは、TAnabeさん 
      どうしましたか?
      : 今何時?
      <you> 今何時?
      <@assistant> 時刻は、17:25です。
      : 今晩、雨降る?
      <you> 今晩、雨降る?
      <@assistant> 夜は、雨の心配はないでしょう
      今夜の山口は雨ではないでしょう。 気温10度、晴れるでしょう。
      ---
      (weather.com でもっと見る)
      : 
      
  • このように textinput.py は音声を一切使わずテキストの入出力のみで Assistant とやりとりを行う内容のシンプルな内容であり、Assistant への指示に音声ではなくテキストを指定可能であることをまっすぐ示している。それを実現するためには google.assistant.embedded.v1alpha2 の AssistConfig クラスの text_query メンバ("The text input to be sent to the Assistant. This can be populated from a text interface if audio input is not available.") を利用すればよいことを以下のコードで知った
    • textinput.py#L83-L100
      083|        def iter_assist_requests():
      084|            config = embedded_assistant_pb2.AssistConfig(
      085|                audio_out_config=embedded_assistant_pb2.AudioOutConfig(
      086|                    encoding='LINEAR16',
      087|                    sample_rate_hertz=16000,
      088|                    volume_percentage=0,
      089|                ),
      090|                dialog_state_in=embedded_assistant_pb2.DialogStateIn(
      091|                    language_code=self.language_code,
      092|                    conversation_state=self.conversation_state,
      093|                    is_new_conversation=self.is_new_conversation,
      094|                ),
      095|                device_config=embedded_assistant_pb2.DeviceConfig(
      096|                    device_id=self.device_id,
      097|                    device_model_id=self.device_model_id,
      098|                ),
      099|                text_query=text_query,
      100|            )
      
  • では、これに対する Assistant からの応答をテキストではなく音声データで受け取ることは可能か? textinput.py でのレスポンス処理箇所は以下の内容
    • textinput.py#L109-L121
      109|        text_response = None
      110|        html_response = None
      111|        for resp in self.assistant.Assist(iter_assist_requests(),
      112|                                          self.deadline):
      113|            assistant_helpers.log_assist_response_without_audio(resp)
      114|            if resp.screen_out.data:
      115|                html_response = resp.screen_out.data
      116|            if resp.dialog_state_out.conversation_state:
      117|                conversation_state = resp.dialog_state_out.conversation_state
      118|                self.conversation_state = conversation_state
      119|            if resp.dialog_state_out.supplemental_display_text:
      120|                text_response = resp.dialog_state_out.supplemental_display_text
      121|        return text_response, html_response
      
  • ここでふたたび pushtotalk.py のコードを追い、上と同じ self.assistant.Assist() ループ中の次の記述に注目した
    • pushtotalk.py#L149-L153
      149|            if len(resp.audio_out.audio_data) > 0:
      150|                if not self.conversation_stream.playing:
      151|                    self.conversation_stream.stop_recording()
      152|                    self.conversation_stream.start_playback()
      153|                    logging.info('Playing assistant response.')
      
  • textinput.py での self.assistant.Assist() レスポンスのループにおいては audio 要素にまったく触れていないが、あるいはテキストベースで指示を受けた場合の応答においても resp.audio_out.audio_data がセットされるのではないかと根拠なく想像。とりあえずループ内に print(len(resp.audio_out.audio_data)) 文を挟んで実行してみた。以下はその画面表示結果
    : 今何時?
    <you> 今何時?
    0
    1600
    1600
    (引用中略)
    1600
    1600
    244
    <@assistant> 時刻は、18:43です。
    
  • どうやら正解らしい。実際に resp.audio_out.audio_data を順次ファイルへ出力し、それを Audacity に Raw データとして取り込んだところ 16ビット 16000 Hz のモノラル PCM データであることが確認された。つまり、textinput.py では音声でのレスポンスが不要であるため参照されていないものの、入力データが音声であってもテキストであっても Assistant からは常に音声形式とテキスト形式の応答が返されるらしい
       
          (mp3 形式へ変換したもの)
  • それなら話は早い。ここでは音声ストリームデータの再生のみができれば良い。コードを追い、pushtotalk.py での対話に使用されている conversation_streamsource, sink の両メンバが googlesamples.assistant.grpc.audio_helpers.py の SoundDeviceStream のインスタンスであることを確認し、同クラス内部の _audio_stream の実体が sounddevice パッケージの RawStream であることを知り 前掲のコードに次の要領で再生処理を加えた
    import sounddevice as sd
    
               :
            text_response = None
            html_response = None
            s = sd.RawStream(
                samplerate=audio_helpers.DEFAULT_AUDIO_SAMPLE_RATE, 
                dtype='int16', 
                channels=1,
                blocksize=audio_helpers.DEFAULT_AUDIO_DEVICE_BLOCK_SIZE)
            for resp in self.assistant.Assist(iter_assist_requests(),
                                              self.deadline):
                assistant_helpers.log_assist_response_without_audio(resp)
                s.write(resp.audio_out.audio_data)
                s.start()
                if resp.screen_out.data:
                    html_response = resp.screen_out.data
                if resp.dialog_state_out.conversation_state:
                    conversation_state = resp.dialog_state_out.conversation_state
                    self.conversation_state = conversation_state
                if resp.dialog_state_out.supplemental_display_text:
                    text_response = resp.dialog_state_out.supplemental_display_text
            return text_response, html_response
               :
    
  • 以上の経緯を経て Google Assistant Service ベースでの TTS プログラムが形になった。前回の Google Assistant Library 版と同じく IFTTT 上に用意した「オウム返しアプレット」を併用

ソースコード

2. 利用者の発話内容をテキストへ変換

テーマ: Google アシスタントの音声認識機能を単体で利用する。いわゆる Speech to Text。

前回 Google Assistant Libray 版試作へのリンク

内容

  • ウェイクワードの検知に Porcupine を利用。対象ワードは「picovoice」
  • 「エディタを起動」でテキストエディタを起動
  • 発話内容のテキストを連続してエディタへ書き出す
  • この手のことはひと昔以上前から商用化されていたが、認識精度が段違いに向上しておりすでに口述筆記や印刷物のテキスト書き起こしの下書きにも使える水準と言ってよいだろう
  • いろいろ肉付けすれば PC 上で Google アシスタントを Cortana, Siri 風のツールとして利用できるかも

デモ: 動画 41秒
  

(前回分)
  

考えたことなど

  • 利用者の発話内容をアシスタント側が認識した結果のテキストを取得したい
  • そのためには以下の手順を踏めばよいことを pushtotalk のコードで知った
    • pushtotalk.py#L138-L148
      138|        for resp in self.assistant.Assist(iter_log_assist_requests(),
      139|                                          self.deadline):
      140|            assistant_helpers.log_assist_response_without_audio(resp)
      141|            if resp.event_type == END_OF_UTTERANCE:
      142|                logging.info('End of audio request detected.')
      143|                logging.info('Stopping recording.')
      144|                self.conversation_stream.stop_recording()
      145|            if resp.speech_results:
      146|                logging.info('Transcript of user request: "%s".',
      147|                             ' '.join(r.transcript
      148|                                      for r in resp.speech_results))
      

ソースコード

  • PicovoiceWithGoogleAssitantService_input.py - github.com/mkttanabe
    • Porcupine をインストールしたディレクトリ下へ配置して実行のこと
    • Porcupine/resource ディレクトリ下に前掲の ding.wav, dong.wav が必要
    • デモ動画ではパラメータに "--keyword_file_paths resources/keyword_files/picovoice_linux.ppn" を指定

3. 利用者の発話内容を他言語へ連続翻訳

テーマ: Google アシスタントの 音声認識 / 文意解釈 / 言語翻訳 / 応答文生成 / 音声合成 の各機能を利用する

前回 Google Assistant Libray 版試作へのリンク

内容

  • ウェイクワードの検知に Porcupine を利用。対象ワードは「picovoice」
  • 今回の Google Assistant Service 版では口頭指示により翻訳先言語を切り替える機能を追加した
  • 利用者が日本語の文章を発話するとアシスタントがその翻訳文を読み上げる
  • 一文ごとにウェイクワード等の指示は不要
  • 操作に手がかからないのでオフィスや店舗等の多言語環境用に翻訳専用端末として仕立てられるかも

デモ: 動画 2分30秒
  

(前回分)
  

ソースコード

  • PicovoiceWithGoogleAssitantService_translate.py - github.com/mkttanabe
    • Porcupine をインストールしたディレクトリ下へ配置して実行のこと
    • Porcupine/resource ディレクトリ下に前掲の ding.wav, dong.wav が必要
    • デモ動画ではパラメータに "--keyword_file_paths resources/keyword_files/picovoice_linux.ppn" を指定

4. 利用者の発話内容を復唱

テーマ: Google アシスタントの音声認識 / 音声合成機能を利用する

前回 Google Assistant Libray 版試作へのリンク

内容

  • ウェイクワードの検知に Porcupine を利用。対象ワードは「picovoice」
  • 利用者が発話したフレーズをオウム返しする
  • 前掲の「指定テキストに基づく音声合成と読み上げ」の音声入力版。いわば翻訳を伴わない Speech to Speech

デモ: 動画 39秒
  

(前回分)
  

ソースコード

  • PicovoiceWithGoogleAssitantService_echo.py - github.com/mkttanabe
    • Porcupine をインストールしたディレクトリ下へ配置して実行のこと
    • Porcupine/resource ディレクトリ下に前掲の ding.wav, dong.wav が必要
    • デモ動画ではパラメータに "--keyword_file_paths resources/keyword_files/picovoice_linux.ppn" を指定

しりとり

テーマ: Google アシスタントの音声認識 / 音声合成機能を利用する

前回 Google Assistant Libray 版試作へのリンク

内容

  • ウェイクワードの検知に Porcupine を利用。対象ワードは「picovoice」
  • 日本語の単語でアシスタントとしりとりを行う
  • しりとり向きの適当な単語辞書を使用
  • 日本語形態素解析に Janome ライブラリを利用

デモ: 動画 60秒
  

(前回分)
  


現時点ではプログラミングを行うための実践的な情報をあまり目にすることのない Google Assistant Library と Google Assistant Service を題材に手元で行った試みを二度に分けて紹介しました。幼児の年齢を迎えたばかりの Google アシスタントはこれからこれらの SDK とともに成長を重ねて行くことでしょう。未来へ向かう道すがらの愉しみがまたひとつ増えた思いです。


(tanabe)
klab_gijutsu2 at 09:23|この記事のURLComments(0)
2018年11月30日

Google Assistant Library プログラミングを楽しむ

はてなブックマークに登録

Google LLC は Google Assistant SDK for devices として 「Google Assistant Library」「Google Assistant Service」 の二種類のセットを提供しています。前者は高水準で稼働環境は狭め、後者は低水準で広範な稼働環境に対応しており、この周到な構成に Google の本気度が窺えます。現時点では一日あたりのリクエスト数に制限はあるものの個人でも無償で利用できることが大きな魅力です。

Google Home デバイスやスマートフォンアプリを通じて Google アシスタントの存在感はどんどん大きくなっています。その一方で現時点では Google Assistant SDK プログラミングのための実践的な情報を国内外を通じてあまり見かけないことが残念に思われました。ネットの奥深くに息づいている Google アシスタント陣営の一連の機能を本 SDK ごしに柔軟に呼び出すことができればこの強力で魅力的なサービスをさらに活用できるのではないでしょうか。

  • 音声認識
  • 文意の解釈
  • 応答文の生成
  • 音声合成
  • 言語翻訳

そんなわけで手元ではここしばらく Google Assistant SDK に向き合っています。今回はまず Google Assistant Library ベースでこれまでに行った調査と実験の内容を紹介します。

Google Assistant Library と稼働環境

前掲の表にも記載のあるように、今のところ Google Assistant Library の稼働環境は Python を利用可能な linux-armv7l または linux-x86_64 なプラットフォームに絞られます。周辺機器としてマイクとスピーカが必須。セットアップは下記ページからの説明にそって行えば問題ないでしょう。導入手順の詳細は随所で紹介されているためここでは省略します。

手元では作業用に 64bit lubuntu 環境の PC と Raspberry Pi 3 Model B+ を使っています。

hotword.py プログラムのこと

Google Assistant Library をセットアップ後の googlesamples/assistant/library/ フォルダには「hotword.py」プログラムが配置されます。実質 100行ほどの短い内容ですが、`sample` と言いながらこのプログラムを利用すればウェイクワードの検知を含め Google アシスタントとのいつものやりとりをそのまま実現することができます。抽象度が高くフロントエンドをこのようにシンプルに実装できることが Google Assistant Library の大きな特長です。
セットアップずみの SDK ディレクトリ下での hotword.py の実行方法は以下の要領です。引数で指定したプロジェクト ID とモデル ID はホスト側に記憶され、変更の必要がなければ次回以降は省略できます。

$ pwd
/home/t/wk/GoogleAssistant

$ ls
env

$ source env/bin/activate

(env) $ googlesamples-assistant-hotword --project-id [設定ずみのプロジェクトID] --device-model-id [設定すみのモデルID]

hotword.py を PC / Raspberry Pi 3 で実行した様子の動画です。ここでは個人的な好みからウェイクワードへの反応音「ポコッ」の再生をコードに加えています。

  
上の動画のラズパイには手持ちの以下のマイク (USB 接続) とスピーカー (3.5mm オーディオジャック接続) を写真の要領でつないでいます。

一連の試作においてはこの hotword.py を下敷きにすることにしました。コンパクトで見通しのよい内容でありながらアシスタントとの応酬に必要な要素の一式が収められているためカスタマイズを試みるための土台としてはまさに好適でしょう。この記事の最後の項目に Google Assistant Library プログラミングを行う上での基本的な作法をまとめています。あわせて参照して下さい。

試作

今回手がけた試作をデモ動画と素のままのソースコードを添えて以下に掲載します。

1. 指定テキストに基づく音声合成と読み上げ

テーマ: Google アシスタントの音声合成機能を単体で利用する。いわゆる Text to Speech。

内容

  • プログラムを起動するとテキスト連続入力モードへ
  • エンターキー区切りで入力した任意のテキストがそのままアシスタントに読み上げられる
  • ウェイクワードは使用しない

デモ: 動画 48秒
  

考えたことなど

  • まず最初に任意のフレーズをアシスタントに自由に喋らせてみたいと考えた。あの耳に馴染んだ声での発話はなかなか流暢で実用性があり、また、Google アシスタントの普及を背景とする記号的な存在感もある
  • だが、アシスタントの音声合成機能は利用者との対話を通じての一連の処理の中で内部的に呼び出されるものであり通常の操作でこれを単体で利用することはできない。また、SDK である Google Assistant Library にもそれを実現可能とする API は用意されていない
  • ここで TTS を実現するための要件をあらためて整理してみると、以下の二点に集約される
    1. 音声データではなく所定のテキストをアシスタント側へ引き渡すこと
    2. 上のテキストの内容をアシスタントに音声合成させてその音声データを再生すること
  • 上記要件 1. については Google Assistant Library にそのものずばりの「send_text_query」 API が存在することをリファレンスで知った。これは使える
    send_text_query(query)

    Sends |query| to the Assistant as if it were spoken by the user.

    This will behave the same as a user speaking the hotword and making a query OR speaking the answer to a follow-on query.

    Parameters: query (str) - The text query to send to the Assistant.
  • 問題は要件 2. だが、任意のフレーズを発話させる方法をひとつ思いついた。Google Assistant サービスをトリガーとする IFTTT アプレットにおいて 「What do you want the Assistant to say in response?」フィールドへ指定したフレーズは利用者が任意に指定すること可能であり、その内容は当該アプレット実行時のレスポンスとしてアシスタントによって発話される。ということは、Assistant サービストリガーを text ingredient オプションつきでアサインし、その text 引数の内容をそのまま response に指定することで「オウム返し」を行う IFTTT アプレットを用意すればよいのではないか? 指定必須の固定文言を「オウム返し」などと設定した上で「オウム返し ○○○○○」と話しかければ、アシスタントは当該アプレット実行のレスポンスとして「○○○○○」と発話するはず
  • さっそく以下の要領で「オウム返し」アプレットを用意して試したところ動画のように期待どおりの結果が得られた
  • あとは、任意のテキストの頭に "オウム返し " の文字列を挿入した上で前述の send_text_query API 経由でアシスタントへ引き渡せば良いだろう

ソースコード

2. 利用者の発話内容をテキストへ変換

テーマ: Google アシスタントの音声認識機能を単体で利用する。いわゆる Speech to Text。

内容

  • 「エディタを起動」でテキストエディタを起動
  • 発話内容のテキストを連続してエディタへ書き出す
  • この手のことはひと昔以上前から商用化されていたが、認識精度が段違いに向上しておりすでに口述筆記や印刷物のテキスト書き起こしの下書きにも使える水準と言ってよいだろう
  • いろいろ肉付けすれば PC 上で Google アシスタントを Cortana, Siri 風のツールとして利用できるかも

デモ: 動画 41秒
  

考えたことなど

  • 利用者の発話内容をアシスタント側が認識した結果のテキストを取得したい
  • そのテキストは下のように hotword.py 実行時にコンソールへきっちりエコーバックされるためプログラムで拾えそうだが、リファレンスをみてもその方法がわからない。ほしいのはこの中の「'今何時'」の部分なのだが、、
    ON_CONVERSATION_TURN_STARTED
    ON_END_OF_UTTERANCE
    ON_RECOGNIZING_SPEECH_FINISHED:
        {'text': '今何時'}
    ON_RESPONDING_STARTED:
        {'is_error_response': False}
    ON_RESPONDING_FINISHED
    ON_CONVERSATION_TURN_FINISHED:
        {'with_follow_on_turn': False}
    
  • hotword.py#L61-L63 にヒントがあった。以下のコードでは ON_CONVERSATION_TURN_FINISHED イベントの発生時に 「event.args['with_follow_on_turn'])」というパラメータを評価しており、それは上のコンソール出力内容末尾の二行に符合する
     61 |    if (event.type == EventType.ON_CONVERSATION_TURN_FINISHED and
     62 |            event.args and not event.args['with_follow_on_turn']):
     63 |        print()
    
  • ということは、「'今何時'」の部分を取得するには、ON_RECOGNIZING_SPEECH_FINISHED の発生時に「event.args['text']」というパラメータを参照すればよいのではないか?
  • 正解! これでアシスタント側が音声認識した結果のテキストを自由に拾えるようになった
  • せっかくデスクトップ環境なのでエディタの起動やテキスト入力といった GUI 操作の要素も加味することにした

ソースコード

3. 利用者の発話内容を他言語へ連続翻訳

テーマ: Google アシスタントの 音声認識 / 文意解釈 / 言語翻訳 / 応答文生成 / 音声合成 の各機能を利用する

内容

  • 利用者が日本語の文章を発話するとアシスタントがその英訳文を読み上げる
  • 一文ごとにウェイクワードや翻訳のための指示を入れる不要はない
  • 操作に手がかからないのでオフィスや店舗等の多言語環境用に翻訳専用端末として仕立てられるかも

デモ: 動画 52秒
  

考えたことなど

  • 周知のように Google アシスタントには 「"今何時ですか?" を英語に訳して」の要領で話しかけることでその文章を所定の言語へ翻訳する機能がある
  • ただ、毎回ウェイクワードを使うのも毎回「を○○語に」などと指定するのも微妙に面倒。発話した内容を自動的に翻訳してくれれば手間が省けるだろう
  • 手元では、前掲の「利用者の発話内容をテキストへ変換」と「指定テキストに基づく音声合成と読み上げ」の試作を通じて、次のふたつの処理を行う方法を把握している
    1. 利用者が喋った内容をアシスタントが認識した結果のテキストを取得する
    2. 音声ではなくテキストでアシスタントへ指示を送る
  • なので、発話したあとに上記 1. でその内容をテキストとして取得し、その末尾に「 を○○語に訳して」と加えた上で 2. の手順でアシスタントへ渡してやればいいだろう

ソースコード

4. 利用者の発話内容を復唱

テーマ: Google アシスタントの音声認識 / 音声合成機能を利用する

内容

デモ: 動画 42秒
  

考えたことなど

  • 手元では、前掲の「利用者の発話内容をテキストへ変換」と「指定テキストに基づく音声合成と読み上げ」の試作を通じて次のみっつの処理を行う方法を把握ずみ
    1. 利用者が喋った内容をアシスタントが認識した結果のテキストを取得する
    2. 音声ではなくテキストでアシスタントへ指示を送る
    3. アシスタントに「オウム返し」をさせる
  • これらを利用する。自分の発話内容をテキストとして取得し、その先頭に前掲の IFTTT アプレット用のフレーズ「オウム返し 」を挿入してアシスタントへ渡してやる

ソースコード

しりとり

テーマ: Google アシスタントの音声認識 / 音声合成機能を利用する

内容

  • 日本語の単語でアシスタントとしりとりを行う
  • しりとり向きの適当な単語辞書を使用
  • 日本語形態素解析に Janome ライブラリを利用

デモ: 動画 58秒
  

考えたことなど

  • スマートスピーカーまわりで Actions on Google や Alexa スキルを使った「しりとり」アプリを見かけるが、ここまでの内容を応用すれば Google Assistant Library ベースで実装できるのではないか
  • 単語の既出チェックや品詞の制限、単語の学習機能などちゃんとしたものを作ろうとすればそれなりに手がかかるが、必要最小限の単語リレーをするだけなら割と手早く作れるかも
  • しりとり向きの単語辞書が必要。ネット上のリソースをもとにそこそこの語彙数のものを用意することにする
  • 下記要領での処理を想定
    1. 利用者が単語を発話
    2. その内容をアシスタントが認識した結果のテキストを取得
    3. それを形態素解析にかけて読みを取得
    4. その読みの末尾文字に合致する一件の単語を辞書からピックアップしてアシスタントに発話させる
    5. 単語の末尾が「ン」なら終了

ソースコード

  • 別途

メモ: Google Assistant Library プログラミングの基本

hotword.py を通じて

前述のように Google Assistant Library のインターフェイスは抽象度が高くシンプルに扱うことができる。実ロジック 100 行程度の hotoword.py が Google Home デバイスとほぼ同等に Google Assistant と連携可能であることは興味深い。hotoword.py の内容にあらためて目を向けると、デバイス ID 等の管理情報の取り回し以外の実質的な処理は以下のごく短い内容のみであることが見てとれる。

  • hotword.py#L122-L145 より
    122 |     with Assistant(credentials, device_model_id) as assistant:
    123 |         events = assistant.start()
                     :
    144 |         for event in events:
    145 |             process_event(event)
    
    (リファレンスより)
    • class google.assistant.library.Assistant(credentials, device_model_id) - developers.google.com
      Client for the Google Assistant Library.

      Provides basic control functionality and lifecycle handling for the Google Assistant. It is best practice to use the Assistant as a ContextManager:
      with Assistant(credentials, device_model_id) as assistant:
      
      This allows the underlying native implementation to properly handle memory management.

      Once start() is called, the Assistant generates a stream of Events relaying the various states the Assistant is currently in, for example:
      ON_CONVERSATION_TURN_STARTED
      ON_END_OF_UTTERANCE
      ON_RECOGNIZING_SPEECH_FINISHED:
          {'text': 'what time is it'}
      ON_RESPONDING_STARTED:
          {'is_error_response': False}
      ON_RESPONDING_FINISHED
      ON_CONVERSATION_TURN_FINISHED:
          {'with_follow_on_turn': False}
      
      See EventType for details on all events and their arguments.

  • hotword.py#L47-L66 より
     47 | def process_event(event):
                      :
     56 |     if event.type == EventType.ON_CONVERSATION_TURN_STARTED:
     57 |         print()
     58 | 
     59 |     print(event)
     60 | 
     61 |     if (event.type == EventType.ON_CONVERSATION_TURN_FINISHED and
     62 |             event.args and not event.args['with_follow_on_turn']):
     63 |         print()
     64 |     if event.type == EventType.ON_DEVICE_ACTION:
     65 |         for command, params in event.actions:
     66 |             print('Do command', command, 'with params', str(params))
    
    (リファレンスより)
    • ON_CONVERSATION_TURN_STARTED - developers.google.com
      Indicates a new turn has started.

      The Assistant is currently listening, waiting for a user query. This could be the result of hearing the hotword or start_conversation() being called on the Assistant.
      • start_conversation() - developers.google.com
        Manually starts a new conversation with the Assistant.

        Starts both recording the user’s speech and sending it to Google, similar to what happens when the Assistant hears the hotword.

        This method is a no-op if the Assistant is not started or has been muted.
      • stop_conversation() - developers.google.com
        Stops any active conversation with the Assistant.

        The Assistant could be listening to the user’s query OR responding. If there is no active conversation, this is a no-op.
    • ON_CONVERSATION_TURN_FINISHED - developers.google.com
      The Assistant finished the current turn.

      This includes both processing a user’s query and speaking the full response, if any.

ポイント

  • Google Assistant との一連の応酬を開始するには google.assistant.library.Assistant クラスのインスタンスを生成し start() をコールする
  • 応酬中の状況はイベントベースで捕捉可能
    • 対話開始: ON_CONVERSATION_TURN_STARTED
    • 対話終了: ON_CONVERSATION_TURN_FINISHED
    • 後は EventType ごとに必要な処理を記述
  • start_conversation() によりウェイクワードなしで Assistant との対話を開始
  • send_text_query() により発話に代え任意のテキストを Assistant へ送出可能
  • stop_conversation() により Assistant との対話を任意に終了

(tanabe)
klab_gijutsu2 at 10:04|この記事のURLComments(4)
Blog内検索
Archives
このブログについて
DSASとは、KLab が構築し運用しているコンテンツサービス用のLinuxベースのインフラです。現在5ヶ所のデータセンタにて構築し、運用していますが、我々はDSASをより使いやすく、より安全に、そしてより省力で運用できることを目指して、日々改良に勤しんでいます。
このブログでは、そんな DSAS で使っている技術の紹介や、実験してみた結果の報告、トラブルに巻き込まれた時の経験談など、広く深く、色々な話題を織りまぜて紹介していきたいと思います。
最新コメント