ロバストインテリジェンスは5月30日、生成AIを企業が安心して活用するためのサポートを目的として、生成AIモデルのリスクを検証および分析する「生成AIリスク評価サービス」の提供を開始することを発表した。

同サービスは、従来のソリューションの考え方でもあるTest-Drivenのアプローチを生成AIにも適用し、多岐にわたるAIリスクの検証と解決を試みる。同社が手掛けるプラットフォームは日本語のLLM(Large Language Models:大規模言語モデル)にも適用可能であり、国内企業が準拠すべき規制にも対応可能とのことだ。また、各国政策や国内外のユースケースに関する知見を生かして、AIリスク管理で重要となる社内のAIガイドライン・プロセス整備などもサポートするとしている。

昨今はChatGPTを始めとする生成AIの利用が急速に広がる中で、不正確な出力や倫理的に問題のある出力、プロンプト・インジェクションなど、これまでのAIモデルと異なるAIリスクが問題となりつつある。

こうした課題を受けて各国の政府も政策を転換しており、G7でも生成AIのリスク対策のための国際的なルール作りが急がれているようだ。そこで同社は自民党・AIプロジェクトチームへの参加などを通じて、AI政策の立案などにも貢献しているという。なお、同社はこれまで、AIの開発段階から運用段階まで一貫してテストベースでリスク検証を行うためのプラットフォーム「Robust Intelligence Platform」を大手企業を中心に提供してきた。

  • AIのリスク

    AIのリスク