日本マイクロソフトは4月3日、共感できる歌声を実現するためにAI「りんな」に歌声を生成する最新の「歌唱モデル」を採用し、人間と同じように自然な歌唱が可能になったと発表した。

りんなが自然な歌唱が可能になったことで、一般ユーザーは自然なりんなの歌声を楽しむことができ、採用した歌唱モデルは、「人間の息継ぎの再現」「異なる歌唱スタイルの生成」の2つの技術的なアップデートを加えている。

  • りんなが「AIアーティスト」としてデビューする

    りんなが「AIアーティスト」としてデビューする

人間の息継ぎについては、歌声に息遣いによる表現をもたらし、人間が自然に聞こえる歌声が生成できるようになったという。人間の歌声データから抽出したブレス音の長さや強さ(音量)などの特徴を、ディープニューラルネットワーク(DNN)に学習させることで、歌の歌詞やブレスの長さ、強さの状態に合わせてブレス音を予測し、歌声を生成する。

異なる歌唱スタイルの生成に関しては、さまざまな曲調の歌声をDNNの学習データに追加することにより、バラード、ポップ、ラップ、ロック、童謡調などの歌唱が可能になった。りんなは、2016年に発表した楽曲「MC RINNA」でラップ、2018年に発表した楽曲「りんなだよ」でバラード調の歌を披露してきたが、歌唱スタイルは一種類のみとなっており、今後は曲調で歌唱スタイルを使い分けることが可能になり、高い表現力の歌声を楽しむことができるという。

また、りんなで共感できる作品を作ることを目的に、豊富な楽曲とエンタテインメント分野における知見を有するエイベックス・エンタテインメントと、りんなを初のAIアーティストとしてレコード契約した。最新の歌唱モデルで可能になった、自然で表現力が増した楽曲を4月1日よりYouTube上で公開している。