ついにOS Xにも登場した「音声入力」

第3世代iPadで登場した「音声入力」は、iPhone 4S/iOS 5の「Siri」からアシスタント部分を省いた入力機能。原則としてシステム内部を見ることはできない(脱獄という手段はあるが)iOSでは、どのように稼働しているか確認できなかったが、OS Xならばそのあたりの自由が利く。

結論からいうと、音声入力の機構は「ことえり」などのインプットメソッドと同じだ。起動用のキーは別にアサインされているが(初期値では[Fn]の2回押し)、プログラムは他のインプットメソッドと同じ/System/Library/Input Methodsディレクトリにある「DictationIM.app」であり、Tiger以降のシステムでIME開発に必須のフレームワーク「InputMethodKit」もリンクされている。

システム環境設定に新設された、音声入力用の設定画面

他のインプットメソッドと動作機構が同じということは、IME経由での文字入力が可能なアプリケーションすべてで利用できることを意味する。だからSafariや「メール」はもちろんのこと、ExcelやWordでも音声入力できる。さすがに「通知センター」から行うツイートを音声入力で行うのは不思議な感じだが、キーボードベースのIMEと同列に扱うということからは、Appleの音声入力に対する考え方が透けて見える。

基本的にIMEで入力可能な場面であれば、音声入力が可能。このように、通知センターから行うツイートにも利用できる

Finderでリネーム作業を行うときにも、音声入力を利用できる

さらに調べてみると、クラウドとのデータのやり取りは「AssistantServices」というプライベートフレームワーク(技術仕様が非公開のAPI)が担っていることがわかる。このフレームワークは、iOS 5のSiri/音声入力で使用されているものと同名であり、そのノウハウがOS Xに持ち込まれたと考えてよさそうだ。

そのためか、変換精度はiOSの音声入力とほぼ同じ。主要部分はプライベートフレームワークであり、内部のしくみは想像するしかないが、"OS XとiOSの融合"がもっとも進んだ機能のひとつであることは確かだろう。

次ページ:着々と進む「サンドボックス化」