伊IK Multimediaは、同社が新技術「AI Machine Modeling」を使った製品開発に取り組んでいることを発表した。AI Machine Modelingでは、人工知能を使用したマシン・モデリングで、さまざまなメーカーのアンプ、キャビネット、コンボ、さらにディストーション、オーバードライブ、ファズ、EQ、ブーストなどのエフェクターを、本物とほとんど区別のつかないレベルの精度でソフトウェア・モデル化できるという。

  • 人工知能を使用したマシン・モデリング技術「AI Machine Modeling」

AI Machine Modelingは、ニューラル・ネットワークによる機械学習を使い、アンプ、エフェクターまたはそのリグ全体のTone Model(トーン・モデル)をキャプチャーする。Tone Modelでは、単体の機材だけでなく、ファズ、オーバードライブ、ディストーションなど、アンプの前に置かれた複雑な倍音を含むリグ全体を、独自のアルゴリズムでキャプチャーするとのことだ。アンプとキャビネットを一緒にキャプチャーした後、この2つを仮想的に分離して、他のキャビネットと組み合わせて使うこともできる。

Tone Modelの生成は、IK Multimediaが用意したギター/ベース・キャプチャー・トラックを再生し、キャプチャーしたいアンプ、エフェクターまたはそのリグ全体を通した信号とドライ信号をAI Machine Modelingの深層ニューラル・ネットワーク・ソフトウェアに入力したのち、AI Machine Modelingソフトウェアが機材を経由した信号とドライ信号を比較しながら、アンプ、エフェクターまたはリグ全体をモデリングするというプロセスを経て行われる。

キャプチャーに専用のハードウェアは不要で、コンピュータ、オーディオインターフェイス、リアンプ・ボックスがあれば、自分でキャプチャーが行える。IK Multimediaの「AXE I/O」などアンプアウトを装備したオーディオインターフェイスなら、別途リアンプ・ボックスを用意する必要はない。アンプアウトのないオーディオインターフェイスでも、リアンプ・ボックスと組わせて、アンプ、コンボ、エフェクターをキャプチャーできる。パワーアンプのキャビネット・アウト信号をオーディオインターフェースに接続するには、別途アッテネータ/ロードボックスが必要となるが、キャビネットで再生された信号をマイクから入力する場合は、マイク入力対応のオーディオインターフェイスがあれば問題はない。

AI Machine Modeling技術を使ったソフトウェア、ハードウェア製品およびオンラインでの展開は、2022年夏より順次公開予定。AI Machine Modelingの動作、実機との音の比較は、リンクページから体験できるとのことだ