米Workdayはこのほど、AIに関する最新の調査結果を公開した。同データは、Workdayの委託によりFinancial Times傘下のFT Longitudeによって2023年11月と12月にかけて実施されたグローバル調査「Closing the AI Trust Gap」の結果に基づくもの。北米、アジア太平洋・日本 (APJ)、ヨーロッパ・中東・アフリカ(EMEA)の3つの主要地域15カ国のビジネスリーダー1375人と社員4000人を対象に実施された。

「AIの導入はビジネスを改革する大きな好機になる」という点ではビジネスリーダーも現場社員も意見が一致した一方で、「今後AIが責任ある形で導入されるか」という点は不安視され、ビジネスリーダーよりも現場社員の方が懐疑的な見方が強く、社内でAIへの信頼度にギャップがあることがわかった。

ビジネスリーダーの70%が「AIは人間がチェックしやすい形で開発すべき」

今回の調査により、「AIを積極的に導入すべき」と考えているビジネスリーダー(経営幹部やその直属の部下)は全体の62%にとどまり、「自社がAIを責任と信頼性のある形で導入できると思う」と回答した割合も同じく62%であった。現場社員の回答ではこの割合はさらに低く、それぞれ52%、55%という結果となった。

「自社がAIを正しく導入すると思うか」という質問についても、現場社員の23%が「AIの導入に際し、自社が導入による利益より社員の利益を優先するとは思えない」と回答。ビジネスリーダーも21%が同様に回答している。

また、ビジネスリーダーの70%が「AIは人間によるチェックと介入がしやすいような形で開発すべき」と考えており、現場社員の42%が「どのシステムを完全に自動化すべきか、どのシステムに人間を介入させるべきか、自社はきちんと把握していない」と考えていることがわかった。

AIを定着させるためには組織の枠組みや規則の制作が最重要

Workdayによる委託調査では、ビジネスリーダーの72%が「自社にAI/ML(機械学習)を活用しきれる能力がない」と回答。「AI/MLを使うために自分自身の知識を深める必要がある」と回答した人は76%で、企業がAIを責任ある形かつ効果的に導入できるか懸念されていることが明らかになった。

そのほか、「AIを定着させるために必要なことは何だと思うか」という質問に対し、ビジネスリーダーの42%、現場社員の36%が「信頼できるAIを構築するために組織としての枠組みや規則を作ることが最も重要である」と回答した。

しかし、AIに関する規則やガイドラインについて組織全体での可視化はまだ不完全で、現場社員の4人に3人が「自社がAI規制に協力していない」と回答したほか、現場社員の5人に4人が「自社で責任あるAIの使用に関するガイドラインがまだ公開されていない」と回答している。