Azure Percept Audioを利用し、音声アシスタントのデモを試しました。
今回は用意されているシナリオから、倉庫の管理を音声でコントロールする、という事を試してみたいと思います。
使用リソース
- Azure Percept DK
- Azure Percept Audio
- Azure IoT Hub
以下のリソースがデモの途中でAzureに作成されます。
- Language Understanding(LUIS)
- Speech Services
- Storage Account
- App Service Plan
- Function App
イヤホンやスピーカーを用意しAzure Percept Audioに接続することで、Azure Perceptからの返答を音声で聞くことが可能です。
テンプレート
Azure Percept Studioでは4つのテンプレートが選択可能です。それぞれのテンプレートで対応するコマンドが変化します。
オーディオの処理
Azure Percept Audio は、ハイブリッド エッジ クラウド方式で、Azure Percept DK キャリア ボードの CPU で実行される音声スタックを介してオーディオ入力を渡します。
参考: Azure Percept Audio デバイスの概要
音声アシスタントテンプレート作成
Azure Percept Studioから音声アシスタントテンプレートの作成を行う手順を動画でまとめました。
音声アシスタントテンプレートデモ
音声アシスタントテンプレートを使い実際に指示を試します。
カスタムキーワード/カスタムコマンド
Azure Perceptでは、既存のもののほかに独自の"キーワード"と"コマンド"を作成し使用することが可能です。
カスタムキーワード・コマンドのプロジェクトはAzure Percept Studioから作成可能ですが、カスタムコマンドを利用する場合は、Speech Studioを使い開発を行う必要があります。
詳しくは、別の記事で紹介します。