The Hacker Newsは6月15日(米国時間)、「New Research: 6% of Employees Paste Sensitive Data into GenAI tools as ChatGPT」において、セキュリティベンダーであるLayerXが公開した生成AIによる組織の漏洩リスクに関するレポートを紹介した。組織が取り組まなければならない生成AIツールによる機密データのリスクや影響などに関する調査報告がまとめられている。

LayerXのレポート「Revealing GenAI’s True Data Exposure Risk」では、1万人の従業員におけるChatGPTやその他の生成AIアプリの使用状況が分析されている。同レポートの主なポイントは次のとおり。

  • 6%の従業員が機密データを生成AIに貼り付けており、4%がこの危険な行動を週単位で行っている
  • 過去3カ月間だけで生成AIツールの使用率が44%も増加している。ただし、活用している組織の従業員は平均19%に過ぎない
  • 生成AIツールを利用している従業員のうち15%がデータの貼り付けに関与したことがあり、4%が毎週、0.7%が週に複数回行っている
  • 貼り付けられる機密データの代表的な種類は社内業務データ、ソースコード、個人識別情報(PII: Personally Identifiable Information)、顧客情報などで、研究開発部門、セールス&マーケティング部門、財務部門のデータが多く貼り付けられている

LayerXは組織に対し、レポートの調査結果をもとに効果的な生成AIデータ保護計画を立案するよう推奨している。また、組織内の生成AIの使用パターンを評価するとともに、利用しているセキュリティソリューションが必要なデータ保護と洞察を提供できているかを確認することが重要だとアドバイスしている。