accessibility
Apple

アップルは20日のGlobal Accessibility Awareness Day(GAAD/世界的にアクセシビリティ=障碍のある人などにとっての情報やサービスへのアクセスしやすさーへの理解を促進するための日)を前に、近い将来iPhoneやiPad、Apple Watchに搭載を予定する新機能を公開しました。

これらはすべてがアクセシビリティの改善に向けられており、すべてのユーザーがデバイスを便利に使えるように焦点が当てられています。


まずwatchOS用のAssistiveTouchは、ディスプレイなどに触れることなくApple Watchを操作できるようにするというもの。本機能は、上半身に不自由のあるユーザーにとって便利なものになる、と説明されています。

具体的にはユーザーがつまんだり握りしめたりといった手のジェスチャーにより、画面上のカーソルを操作したり、着信に応答したり、通知センターやコントロールセンターなどへのアクセスができるようになるとのこと。

技術的には、Apple Watch内蔵のジャイロスコープや加速度計などのモーションセンサーに加え、光学式心拍センサーや機械学習を使うことで筋肉や腱の微妙な違いを検出して行うもの、と説明されています。


iPadOSでは、まもなくサードパーティ製アイトラッキング用デバイスのサポートを追加し、ユーザーが視線を使ってiPadを操作できるようになるとのこと。

今年後半には対応するMFi(Made iPhone)デバイスと連携することで、ユーザーが画面上のどこを見ているかを追跡し、ポインターが視線に合わせて動き、じっと見つめてのタップ操作などが実行できると述べられています。

すでに補聴器向けにもMFiプログラムは存在していますが、それがアイトラッカー機器にも拡大される模様です。


またiPhoneの視覚障がい者向けアクセシビリティ機能であるVoiceOverも大幅にアップグレードされる予定です。現在の同機能は「デバイス上で起きていることを読み上げて説明」するものですが、これが画像の中の人物、テキスト、表データ、その他のオブジェクトなど、より詳細な情報を伝えられるようになるとのこと。

こうした詳細な情報解析により、たとえば画像内の人物の位置を表現できるとも述べられています。「巻き毛のある茶髪の人の顔が微笑みながら、わずかに右を向いている」という具合です。


加えて、双方向補聴器やオーディオグラム(聴力検査の結果)もサポートされるとのことです。

まず前者は、双方向補聴器に搭載されたマイクにより、耳の不自由な方がハンズフリーで電話やFaceTimeでの会話が可能になります。MFiパートナー(サードパーティ)による次世代モデル(双方向補聴器)も今年後半に発売される予定とされています。

また後者は聴力検査の結果を紙やPDFから取り込み、音量設定をすばやく調節できるというもの。そしてヘッドホン・アコモデーション(適応)ではユーザーの聴力に合わせて、小さな音を増幅したり、特定の周波数を調整できると予告されています。


これらの新機能の具体的なリリース時期について、アップルは明らかにしていません。今やiPhoneやスマートフォンは現代人にとって身体の一部であり拡張する機器となっていますが、その恩恵があらゆる人に及ぶことを期待したいところです。

Source:Apple