「AIがもたらす科学技術・イノベーションの変革」と題した令和6(2024)年版科学技術・イノベーション白書を文部科学省がまとめ、政府が閣議決定した。AI(人工知能)に関しわが国を取り巻く状況や研究開発動向、さまざまな分野でのAIの活用の可能性を特集。課題も提示し、AIとの共生を展望した。

生成AI技術が進展、「第4次ブーム」も

  • alt

    令和6年版科学技術・イノベーション白書の表紙(文部科学省提供)

白書は例年通りの2部構成で、11日に閣議決定された。第1部は毎年、切り口を変えた特集記事の形を採っており、日本の研究力の課題を扱った令和4年版、地域発の科学技術・イノベーションの事例を特集した5年版に続き、今年はAIに焦点を当てた。技術の歩みを概説した上で、国内外の動向、活用を通じて期待される新たな科学、社会へのインパクトをひもといている。

第1部の冒頭では、AIをめぐる状況を概観。国内AIシステム市場の規模は昨年、前年比34.5%の成長を記録した。2028年まで平均30%で推移するとの予測もある。こうした展開が、イノベーションを通じ一人一人が快適で活躍できる社会を目指す、現行の第6期科学技術・イノベーション基本計画の構想を後押しするとした。「単に技術を取り入れるだけではなく、どのように社会全体のイノベーションに結びつけるか、技術との共生をどう築くか」が課題であると提起した。

第1章では技術の潮流を振り返った。1955年に米国の研究者がAIという言葉を使って以降、技術や手法の進展とともに、3次にわたる「ブーム」が起こってきたことを解説。2010年頃から、機械学習技術などの発展により第3次ブームが続くが、画像作成や対話型AIといった「生成AI」技術などの展開により、第4次ブームにさしかかっているともいわれる。

米オープンAI社が開発した「チャットGPT」は対話型生成AIの一つ。インターネットで英語や日本語などの自然言語で利用でき、超大規模学習が進み精度が向上したことから、一般にも急速に普及している。文字情報から画像を生成する画像生成AIも公開されている。

AIの進展により、克服すべき状況も生じている。例えば学習するデータや計算資源(コンピューター)が増え、消費電力が増加した。また対話型生成AIは、統計的に次の言葉を予測するに過ぎず、意味を理解して回答してはいないため、数式計算や物理法則に基づく予測のような論理推論に弱い。そこで次世代AIの研究開発が始まっている。

誤情報、価値観や偏見含むリスク…対策へ

第2章はわが国の研究開発を紹介した。政府が2022年4月にまとめた「AI戦略2022」などを基に進む、取り組みの実例を取り上げた。

チャットGPTをはじめ、大量のデータと深層学習技術によって、人が日常に使う言葉を生成できる「大規模言語モデル」の開発が世界的に盛んだ。一方、日本語能力の高いモデルが少なく、また一部企業による独占の懸念もある。そこでわが国でも、高度な日本語処理ができるモデルなどの開発が進む。経済産業省は、計算資源を支援するなどの取り組みを始めた。

研究機関と産業界の計算資源の共有、計算資源開発や利用環境整備への支援も実現している。理化学研究所の「富岳」などのスーパーコンピューターが、AI技術の開発や深層学習の計算にも活用。AIとスパコンの組み合せで、スケールの大きいデータ解析やモデル学習が可能になった。日本語の大規模言語モデルを開発するには、日本や日本語に関するデータベースの整備が重要となる。

一方、大規模言語モデルでは、生成された誤情報が正確にみえる「幻覚(ハルシネーション)」の問題が指摘されている。価値観や偏見、偏りを含む学習データが結果に反映されるリスクがある。政府のAI戦略会議は、機密情報漏洩(ろうえい)や個人情報の不適正利用、犯罪の巧妙化、偽情報による社会の混乱――といったリスクを指摘している。

こうした中、政府は今年2月、基準づくりなどに取り組む専門機関「AIセーフティ・インスティテュート」を設立。総務省と経済産業省は、事業者のガイドラインを策定した。総務省の検討会は、生成AIやディープフェイク(精巧な偽物)技術のリスクを含めた総合的な対策を、今年夏ごろの取りまとめに向け検討している。

AIの透明性、信頼性の確保を支える技術開発も進む。例えば外部の情報の検索を組み合わせる「検索拡張生成」などにより、出力結果の根拠が明確になる。画像識別AIの誤識別リスクを抑える技術や、AIがプライバシーを守りながら個人情報を含む学習データを分析する仕組みも開発されている。AIの知識・技能を持つ人材育成の取り組みも挙げた。

第3章は世界の動向、国際連携の状況を概説した。米国ではバイデン政権が昨年7~9月、AIを研究開発する企業15社が安全性、セキュリティー、信頼性の3原則に基づき自主的な取り組みを約束したと発表。同10月には、安全保障上の重大なリスクをもたらす基盤モデルの開発者に、安全性評価の報告を義務づけた。このほか英国、EU(欧州連合)、ドイツ、フランス、イタリア、カナダ、中国、シンガポールの取り組みを紹介した。

わが国は昨年、G7議長国としてAI分野の政策の議論を主導した。同年5月のG7広島サミットなどを踏まえ、生成AIの諸課題を議論する枠組み「広島AIプロセス」を打ち出した。同12月、国際指針や行動規範を含む「広島AIプロセス包括的政策枠組み」がまとまり、G7首脳に承認されている。

科学研究利用に求められる「透明性」と「機密性」

第4章では、科学研究を加速するAI「AI for Science(フォー・サイエンス)」を、事例と共に解説している。観測データからノイズを除去するなど「科学データの改良や情報の抽出」、創薬などに役立つ「シミュレーションの高度化、高速化」、家事や介護を支援するロボットに求められる「リアルタイムの予測や制御」、人間の認知の限界やバイアス(偏り、先入観)を超えた発見につながる「科学的仮説の生成や推論」、さまざまな条件に柔軟に対応する「実験、研究室の自律化」――を挙げた。

AIのさらなる活用に向け、基盤モデルやアルゴリズム(手順、手続き)の開発が理化学研究所などで進む。日米連携も進展。科学技術振興機構(JST)の戦略的創造研究推進事業では、2021年度から研究領域「データ駆動・AI駆動を中心としたデジタルトランスフォーメーションによる生命科学研究の革新」で公募を行い、17件の研究課題を採択し支援してきた。

量子コンピューターを使う研究も加速。また大規模言語モデルは自然言語だけでなく、アミノ酸配列などを大量に学習させることなど、生命科学でも活用され始めている。

AIによって実験やシミュレーションが効率化することで、研究者は課題設定や研究計画に専念することが重要となる。

AIを科学研究で活用する上での課題も提示した。例えば、AIモデルや学習データの透明性の確保が重要となる。AIは必ずしも内容に責任を負わないため、学術誌の出版社はAIが論文著者になることを認めず、またAIの作成画像を使用すべきではないとしている。ほとんどのAIモデルがユーザーの指示や質問内容をトレーニング材料として使用するため、情報の機密性に対する懸念もある。AIと著作権、特許をめぐる議論も示した。

第5章では、行政や企業の活用事例を紹介した。AIは身近な技術となりつつあるが、複雑性や(仕組みが見えない)ブラックボックス性、悪用の恐れなどを認識し、責任ある行動を取れるようリテラシー教育が重要とされることに触れている。

第2部は政府が昨年度に取り組んだ科学技術・イノベーションの振興策をまとめた。「令和6年能登半島地震における研究開発成果の活用事例」「地方公設試の技術開発と海外での知的財産権の保護」「近年のメタサイエンス運動の広がりについて」などのコラムも盛り込んだ。

表紙と扉絵は、AIがさまざまな研究分野で活用され、新たな価値や知が生まれて広がっていくことを、神経細胞を模したキャラクターやタンポポの種を描くことで表現している。

  • alt

    扉絵。AIがさまざまな研究分野で活用され、新たな価値や知が生まれて広がっていく様子を描いた(文部科学省提供)

関連記事

地域発の多彩な科学技術・イノベーション、白書が事例を特集

日本の研究力、国の強化策を読み解く 科技イノベ白書を公表