5月の第3木曜日(今年は5月18日)は「Global Accessibility Awareness Day」だ。障碍のある人などにとっての情報やサービスへのアクセスのしやすさ、アクセシビリティについて考える日に向けて、16日にAppleが「Assistive Access」「Live Speech」「Personal Voice 」「Point and Speak in Magnifier」など、今年後半にリリースするアクセシビリティの新機能を発表した。ハードウェアとソフトウェア、デバイス内蔵の機械学習を組み合わせ、プライバシーにも配慮したAppleならではのコグニティブアシスタントを提供する。
「Assistive Access」は、「カメラ」「写真」「ミュージック」「電話」「メッセージ」の体験を必要な機能に絞り込み、コントラストの高いボタンと大きなテキスト・ラベルを備えた明確なインターフェイスで、操作時の認知負荷を軽減する。これは認知障害を持つ人々がiPhoneやiPadを使って「家族や友人とのつながりを保つ」「写真撮影を楽しむ」「音楽を聴く」といった活動をより容易に行えるよう設計された機能だ。視覚的なコミュニケーションを好むユーザーのためにメッセージに絵文字のみのキーボードを含めたり、テキストを好むユーザーには行レイアウトなど、カスタマイズツールを使って体験を柔軟に調整できる。
「Live Speech」は、電話やFaceTimeでの通話、または対面での会話において、ユーザーがテキストで入力したことを自然な音声で読み上げて伝える機能。iPhone、iPad、Macで利用できるようになる。よく使うフレーズを保存し、会話ですぐに呼び出せる機能も用意される。
「Personal Voice」は、デバイス内蔵の機械学習機能を利用して、ユーザーの声とそっくりの合成音声モデルを作成する機能。サポート言語は英語。iPhone、iPad、Apple Silicon搭載Macで、ランダムに表示されるテキストプロンプトを読み、音声を約15分間録音すると合成音声が作成される。Live Speechにシームレスに統合されており、パーソナルボイスによるテキスト読み上げで言葉を伝えられる。
「Point and Speak in Magnifier」は「拡大鏡」アプリの検出機能を使って、テキスト表記のある物理オブジェクトとのインタラクションをサポートする機能。例えば、電子レンジの操作パネルを拡大鏡に表示し、指でボタンに触れるとそのボタンに書かれている小さな文字を読み上げてくれる。LiDARスキャナーを備えたiPhoneとiPadで利用でき、サポート言語は、日本語、英語、フランス語、イタリア語、ドイツ語、スペイン語、ポルトガル語、中国語、広東語、韓国語、ウクライナ語など。