ニュース

iPhoneの“シンプルな表示”など、アップルから新しいアクセシビリティ機能

 アップル(Apple)は、視覚障害や聴覚障害などを持つ利用者向けに、「Assistive Access(アシスティブアクセス)」「Live Speech(ライブスピーチ)」をはじめとするアクセシビリティ機能を発表した。

 同社は、「Assistive Access」「Live Speech」を含む新機能について、2023年後半に提供を開始するとしている。

「Assistive Access」

 iPhoneやiPadのアプリでシンプルな表示を適用できる「Assistive Access」には、障害を持つ人からのフィードバックが反映されているという。アップルでは、「各アプリの体験を本質的な機能に絞り込み、利用者の負担を軽減する」としている。

 コントラストの高いボタンや、大きな文字で表示されたボタンなどが用意される。また、絵文字だけのキーボードを表示したり、ホーム画面のレイアウトを選択したりというように、カスタマイズ性も備える。

「Live Speech」

 iPhone、iPad、Macの「Live Speech」は、電話やFaceTimeでの通話に加え、対面での会話もサポートする機能。

 利用者は自分が言いたいことを入力すると、それを音声で伝えられる。頻繁に使うフレーズも保存できる。

「Personal Voice」

 利用者の声によく似た声を生成できる「Personal Voice(パーソナルボイス)」が用意される。

 音声の生成には、iPhoneまたはiPadでランダムに表示されるテキストを読み、15分間の音声を録音する必要がある。利用者のデータは非公開かつ安全に管理される。

 「Personal Voice」は先述の「Live Speech」と統合されている。たとえば将来的に自らの声を失ってしまう可能性があっても、音声を生成しておけば、家族や友人との音声コミュニケーションに役立てられる。

「Point and Speak」など

 「拡大鏡」の検出モードにおいて、「Point and Speak(ポイントアンドスピーク)」が用意される。

 たとえば電子レンジなどの家電製品を利用する際、利用者の指の動きに合わせて、レンジのボタンに書いてある文字がアナウンスされる。カメラやLiDARスキャナなどを活用しているという。

 そのほか、「メッセージ」「Safari」においてGIF画像を自動的に一時停止する機能など、さまざまなアクセシビリティ機能が用意される。