東京大学(東大)は8月14日、最新のAI技術である自己教師あり学習手法の一種の「マスクドオートエンコーダー」(MAE)を採用し、多施設から収集された約23万例のデータを活用し、心電図解析において、データ収集のコストや時間を削減可能な画期的なAI技術を開発したことを発表した。

同成果は、東大大学院 医学系研究科の澤野晋之介大学院生(研究当時)、同・大学 医学部附属病院(東大病院) 循環器内科の小寺聡特任講師(病院)、同・大学大学院 医学系研究科 先端循環器医科学講座の小室一成特任教授(国際医療福祉大学 副学長兼任)らの共同研究チームによるもの。詳細は、米オンライン科学誌「PLOS ONE」に掲載された。

  • 今回開発されたMAEを用いたAI心電図解析技術。従来手法を超える精度が実現された

    今回開発されたMAEを用いたAI心電図解析技術。従来手法を超える精度が実現された(出所:東大プレスリリースPDF)

従来の心電図解析で精度の高い異常検出を行うには、大量のラベル付きデータが必要とされていた。しかし、医療分野ではデータの収集やラベリングが困難で、この制約が精度向上の大きな障害となっていたという。そこで研究チームは今回、その課題を克服するため、最新のAI技術である自己教師あり学習手法であるMAEを用いて、高精度な心電図解析モデルを開発することにしたとする。

自己教師あり学習とは、AIがデータの一部を利用して、自身で正解を見つけながら学習する方法のこと。これにより、大量のラベル付きのデータが無くても効果的に学習が進められるという。今回の場合は、ラベル付きデータなしでも、心機能低下を高い精度で心電図から判読するモデルを実現することが可能だとする。そして自己教師あり学習手法の一種であるMAEは、名称の一部に“マスクド”とあるように、データの一部を隠し、その隠された部分を再構築することで学習を行うという手法。

今回の研究では、MAEを用いてマスクされた心電図データが再構築され、「ビジョントランスフォーマー」(ViT)モデルが事前学習された。ViTとは、画像を小さな部分に分割し、それぞれの部分を処理して全体を理解するAIモデルのことで、これにより、画像全体の文脈を捉え、高い精度で解析ができるという。

またデータとしては、東大病院を含む7つの医療機関から収集された約23万例の多施設データが活用され、モデルの訓練・検証が行われた。その結果、MAEを用いた心電図解析モデルは、外部検証コホート全体で「受信者動作特性曲線下面積」(AUC)が0.962という非常に高い値を示し、他の深層学習モデルを凌ぐ性能が示されたという。AUCとは分類器の性能を評価する指標で、0.5~1.0の範囲内で表され、1.0に近いほど高い性能であることを示す。また今回のモデルは、国際的に評価されている心電図ベンチマークデータセット「PTB-XL」でも高い性能が維持され、心電図解析の新たな標準となる可能性が示されているとした。

さらに今回の研究では、MAEベースの心電図解析モデルの性能がモデルの容量と訓練データの量に依存することも発見された。具体的には、東大病院の心電図データ3万8245件を使用して訓練された3種類のViTモデル(ViT-Base38K、ViT-Large38K、ViT-Huge38K)での性能向上が確認されたとする。これにより、データが限られている場合でも、適切な自己教師付き学習手法を用いることで、高性能なモデルを構築できることが示されたとした。

今回の研究の意義は、多施設データの活用により、AIモデルの一般化性能が向上したことだという。これにより、異なる医療機関や地域でも一貫して高精度な心電図解析が可能となり、より広範な医療現場での応用が期待されるとする。またMAEを用いることで、大量のラベル付きデータがなくても高性能なAIモデルを構築できるため、データ収集のコストや時間を削減することが可能な点もメリットとしている。