iOS 18.4のアップデートにより、iPhoneでApple Intelligenceの一部機能が利用できるようになりました(*)。Apple Intelligenceは、メールやメモ、カメラといった、日頃から使い慣れたアプリに組み込まれ、いつもの使い勝手をサポートしてくれることが特徴です。

今回は、Apple Intelligenceで部分的に強化されたSiriの機能をご紹介します。とはいえ、急激に成長する他社のAIからするとまだまだ足りない部分が目立ちます。

*対応モデル
iPhone 16シリーズ、iPhone 15 Pro、iPhone 15 Pro Max

Siriの見た目が変わった

Siriを呼び出し方はこれまでと変わりません。サイドボタンを長押しするか、「Hey Siri」と呼びかけます。Siriが起動すると、画面を囲む光が表示されるようになりました。

  • サイドボタンを長押し、または「Hey Siri」でSiriが起動。光る球のようなアイコンではなく、画面の縁に沿って光が表示されるようになりました

文字入力でSiriを使えるようになった

新たに、ホームバーの2回タップでもSiriが起動するようになりました。これはタイプ入力専用です。話せない場所でSiriを使うなら、こちらが便利です。

  • 画面下部のホームバー(白または黒の線)を2回タップすると、タイプ入力専用のSiriが開きます。文字を入力してSiriに話しかけます

ホームバーをタップしてもSiriが起動しない場合は、次の設定を確認しましょう。

  • [設定]を開き、[Apple IntelligenceとSiri]→[Siriに話しかける/タイプ入力する]の順にタップ。[Siriにタイプ入力]をオンにします

ChatGPTの回答を参照してくれるようになった

実用性を大きく広げてくれたのがこの新機能。SiriにわからないことはChatGPTに情報を送って回答してくれるようになりました。ChatGPTアプリを開くことなく、Siri上でやり取りができます。

  • Siriにできないことは、ChatGPTに質問を回して答えてくれます

  • 写真を開いた状態でSiriを起動し、その写真について質問することも可能です

今後の強化に期待する機能

この他、Siriの新機能として次のようなものが紹介されています。まだ改善の余地が大きいものもあります。

文脈を引き継いで答えてくれるようになった

  • 場所を調べてから、続けて「電車で行くには?」と聞くと、その場所への行き方を調べてくれます。質問を続ける際に画面をタップする必要もなくなりました

言い淀み・言い直しがカバーされるようになった

  • 自然な会話とまではいきませんが、多少間違ってもついてきてくれるようです

iPhoneの操作について答えてくれるようになった

  • iPhoneの機能について尋ねると、操作ガイドの内容を参照して答えてくれます。ただし、操作ガイド以上の回答は期待できません