「iPhoneやiPad、Macは使いやすいデバイスである」ということは多くの人が実感しているでしょう。しかし、アップルは「障害を持つ人にとっても使いやすいデバイスでなければ完全ではない」と考えており、iPhoneなどを誰でもスマートに使えるようにするさまざまなアクセシビリティ機能を搭載してきました。
そのアップルが、これまでにない新しいアクセシビリティ機能を発表。正式リリースは2023年後半の予定ですが、どのようなスマートな機能が追加されるのか、世界中でアクセシビリティを考える日「Global Accessibility Awareness Day」(GAAD)である5月の第3木曜日(今年は5月18日)に合わせてひと足早くチェックしていきましょう。
ホーム画面も標準アプリも驚くほどシンプルにする「Assistive Access」
今回アップルが発表したのは、おもに認知、視覚、聴覚、運動能力に障害を持つ人や、話す能力を失いつつある人を対象に、iPhoneやiPadなどの機器をより手軽に利用したり、日常生活を便利かつスマートに過ごすためのアクセシビリティ機能です。
まず目を引くのが「Assistive Access」(アシスティブアクセス)。認知能力に障害を持つ人に向け、iPhoneやiPadのホーム画面のレイアウトやアプリの表示を格段にシンプルにして余計な情報を取り払い、迷いなく操作できるようにする機能です。ホーム画面は壁紙もなく、大きいアイコンが整然と並ぶスタイルを採用。リスト形式の表示にも切り替えられます。
同様の工夫は、さまざまなアップル標準アプリにも施されます。電話アプリは、家族や友人など親しい人の連絡先だけが顔のアイコンとともに出てくる分かりやすいレイアウトを採用。メッセージアプリは、文字入力機能を隠して絵文字だけを入力できるようにしています。カメラアプリも、ライブビューと大きなシャッターボタンだけのシンプルな構成にできます。
自分の声も使える音声合成機能「Live Speech」
続いて「Live Speech」(ライブスピーチ)。タイプした文字を音声化して伝える機能です。よく使うフレーズは保存して簡単に呼び出せるので、「おはようございます。ホットのコーヒーを持ち帰りでお願いします」といった文章もワンタッチで音声で相手に伝えられます。
このLive Speechをますます魅力的な存在にするのが、Live Speechと組み合わせて使う新機能「Personal Voice」(パーソナルボイス)です。自分の声を記録することで、その声に似せた合成音声で文章を音声化できるというもの。指定された文章をiPhoneに向かって読み上げるだけで、機械学習の力で自分の合成音声を生成できます。
Personal Voiceが光明となるのが、将来的に自分の声を失う不安と隣り合わせの難病「ALS」に罹患している人。ALS患者にとって、自分の声をもとにした合成音声で話せる手段が残されるのはうれしいことに違いありません。Personal Voiceなら、iPhoneさえあれば合成音声の作成にお金がかかることはなく、オンデバイスで完結するのでプライバシーやセキュリティもしっかり確保されます。
指差した文字を音声で読み上げる「Point and Speak」
4つめの新機能が「Point and Speak」(ポイントアンドスピーク)。視覚障害を持つ人に向けたアクセシビリティ機能で、iPhoneのカメラを向けた先にある文字を指差すと文字を音声で読み上げてくれる機能です。文字の判読が難しい弱視の人でも、家電の操作ボタンなどにiPhoneをかざして文字を指差すだけで、どのような機能なのかが音声で確認できます。
これ以外にも、Macのアプリで用いられる文字のサイズを調整して見やすくする機能や、Safari内に表示されるGIFアニメなどの動く要素を制止する機能など、細かな新機能が提供されます。
新しいアクセシビリティ機能の詳細は、6月5日(米国現地時間)から始まる毎年恒例の開発者会議「WWDC23」で紹介されるとみられます。開幕まで約半月、アクセシビリティ機能以外にもどのような発表がなされるのか、楽しみです。