Siri
Wachiwit via Getty Images

アップルが音声アシスタントSirにつき、吃音など非定型音声の聞き取りを改善する方法を研究していると報じられています。

The Wall Street Journal報道によると、アップルはユーザーが吃音で話していることを自動的に検出できる方法を研究中であり、Siriを訓練するため吃音の人が出演するポッドキャストから2万8000ものオーディオクリップのライブラリを構築したとのことです。アップルの広報担当者は、同社が収集したデータは非定型音声パターンの音声認識を改善するだろう、との見通しを述べています。

これに先立ち、アップルは2015年から「Hold to Talk」なる機能を導入ずみです。本機能はSiriの入力受付時間を調節でき、ユーザーが話し終える前にSiriが吃音により聴き取るのを止めることを防げるものです。

またiOS 11以降には「Siriに話しかけるのではなくタイプ入力できる」機能も追加されています。[設定]>[アクセシビリティ]>[Siri]と選択して「Siriにタイプ入力」をオンにした後は、Siriとキーボードおよびテキストフィールドを使って会話できるようになります。

こうしたSiriを改善する取組みのあらましは、今週(~2月27日)発表の研究論文で説明する予定だと述べられています。

WSJでは、Googleとアマゾンが音声に困難を抱えている人たちに対応するために、それぞれの音声アシスタントを改善する努力にも触れています。Googleは非定型音声データを収集する一方で、アマゾンは昨年12月にAlexa基金を立ち上げ、音声障害を持つ人々の独自の発生パターンを認識できるアルゴリズムを訓練中といった現状が伝えられています。

Googleの担当者は、非定型な音声パターンが標準的なそれよりもはるかに多様であり、人工知能が理解するのが非常に難しいと語っています。テクノロジーの恩恵を、あらゆる人々が受けられる日が来ることを祈りたいところです。

Source:The Wall Street Journal

via:MacRumors