GoogleのAndroid向けLive Transcribeアプリは、聴覚障害のある人にとって素晴らしいツールです。機械学習を使用して、会話や周囲の音をすばやく書き起こします。
最新のアプリの更新により、犬の鳴き声や通り過ぎるサイレンなどのアンビエントサウンドを文字起こしできるようになりました。これにより、数人のジャーナリストが、Live Transcribe技術を使用してオナラを検出できるかどうか疑問に思いました。そして確かに、公式のAndroid Twitterアカウントはこの機能を確認しました(h / t: 9to5Google).
はい、MLでできますが、テストデータセットの取得は困難です。
— Android(@Android)2019年5月16日
Googleのテクノロジーにはこの機能がありますが、検出を確実に機能させるためにはより多くのサンプルが必要です。これらのサンプルを入手することはかなり厄介であることが判明する可能性がありますが、いくつかのTwitterユーザーは既に(冗談を言って?)同社がデータセットを拡大するのを支援することを志願しています。
聴覚障害のある人は鼓腸が音を立てることに気づかないかもしれないので、単なるギャグでもありません。したがって、Live Transcribeでこれを実装するメリットは確かにあります。
いずれにしても、Googleは今年アクセシビリティ機能を強化しています。 Google I / O 2019で、同社はAndroid Q向けのライブキャプションを公開しました。デバイス上の機械学習を使用して、スマートフォン上のあらゆるビデオのキャプションを配信しました。