Core MLは汎用的な機械学習モデルを利用するアプリの環境を提供するが、Appleは画像処理と自然言語処理について、それぞれ別のライブラリを用意している。

画像処理については、AppleがiOS 11のプレゼンテーションでも紹介していたが、リアルタイム画像認識、顔認識、オブジェクト認識と追随、画像の意味解析、水平認識、バーコード認識など。これにモデルを組み合わせることによって、花の種類を認識するアプリを作ることができるようになる。

また、自然言語処理では、テキストの予測、感情分析、手書き認識、言語の種類の認識、翻訳などを行うことができ、文字にカメラをかざして意味を知る、といった処理を実装できる。

カメラを入力ソースにさまざまな処理ができる

Core MLを使うのは、こうした画像や自然言語以外で機械学習モデルを使いたい場合、となる。ソースは、テキストや画像、音声、その他のデータであり、iPhoneやiPadであればカメラからの入力も利用できる。それをどのように認識して結果を返したり、その結果を加工して提供したりすることで、機械学習を活用したアプリを作ることができる。