生成AI 、とりわけ ChatGPTは、AI(人工知能)の可能性を一瞬にしてリアルなものにしました。この急速な変化は、大量の報道や生成AIに関するアナリストの予測によってもたらされたものであり、インターネット初期時代の懐疑的な感情と同様のものも多く見られます。

とはいえ、生成AIがマーケティング手法を変革し、現在人間が担っている役割に取って代わる可能性は注目に値します。しかし、議論は十分に行われておらず、「AIを副操縦士とする場合、どのように差をつけて働く必要があるか」という、マーケターやコンテンツクリエーターが考慮しなければならない疑問に対して的確に対処できていないのが現状です。

MIT Sloan Management Reviewとボストンコンサルティンググループが行った最近の調査によると、60%の従業員がAIを同僚と見なしており 、仕事を奪う脅威とは感じていないということがわかっています。特に生成AIに関しては、マーケターやコンテンツクリエーターが適応性を持てば、より広く見ればインターネットのように、その影響はポジティブになる可能性があります。

例えば、生成AIを使うことで、コピーライティングや顧客心理データの分析などのタスクに費やす時間を減らし、代わりにコンテンツ戦略のようなより戦略的なタスク に取り組んだり、自然言語クエリによって生み出されたインサイトに基づいて行動したりすることができるでしょう。

しかし、マーケターとしての最大責任は、組織や同僚たちが自分たち人間の能力を発揮できるような特性、特に信頼やクリエイティビティなどを十分に活用できるように手助けすることにあります。筆者は、同僚(デジタル倫理の第一人者)であるChris McCleanと、企業で生成AIを活用する際にマーケターが心得ておくべきことに関するアバナードのグローバルマーケティングコミュニティに共同でプレゼンテーションを行いました。

以下、マーケターが生成AIを活用する際に心得ておくべきことを紹介しましょう。

IPの所有権/責任ある使用

クリエイティブチームが新規マーケティングキャンペーンに生成AIツールで生成した画像を使用後、画像の一部が他人の作品とほぼ同じ複製であり、著作権侵害の可能性があることが明らかになった場合、風評被害を受ける可能性を想像してみてください。

適切なチェックをしなければ、情報の調達や大規模言語モデルの強化を目的に疑わしい労働慣行 を実施したパートナーとの関連性により、組織全体の評判にも損害を被る可能性があります

透明性

顧客、従業員、その他のステークホルダーが、機械によって生成された個人のメッセージを発見した場合、顧客や従業員、あるいはその他のステークホルダーは信頼を失うかもしれません。私たちは、信頼性や適切なトーンが不可欠な場合、常に人を第一に考えるべきです。

また、マーケターやコンテンツクリエーターは、人間と生成AIによって洞察やメッセージがどのように生成されるかを説明するための適切で透明性ある管理者でもあり、主要な利害関係者の信頼を維持することを目指す必要があります

正確性

ほとんどの大規模な言語モデル(LLM)コンテンツのソースがどの程度信頼があるのか、または最新のものなのかを知ることは不可能です。そのため、これらのツールを使用してプロダクトやサービスを説明することは、事実と異なる致命的な不確実性を生むことになりかねません。

ChatGPTを起動させるOpen AI LLM という最新バージョンでさえ、2021年9月までのコンテンツにしか対応できていないのです。 ジェネレーティブAI のLLMもまた、明らかに偏った、あるいは不適切なコンテンツを作り出してしまう可能性があります。ですから、顧客とのやりとり、特にチャットボットのようなリアルタイムのタッチポイントに生成AIを利用することのリスクは注意が必要です。

情報保全

生成AIのプロンプトに入力された情報が、第三者の目にさらされることがあるということを多くの人が知りません。Microsoft Azureは、マイクロソフトが企業保全やプライバシー、そしてコンプライアンス面への継続的投資をしているため、アバナードではChatGPTのような公共モデルよりも、Microsoft Azure OpenAI サービスの利用を推奨しています。

企業・組織においては、生成AIサービスが自分たちの情報に対してどのようなアクセス権を持っているかを十分に調査する必要があります。私たちはマーケターとして、GDPRによる経験に基づいて体制を整え、AIが主役となる世界で組織が適切な顧客データの保護を維持できるよう支援する準備をする必要があります。

AIファーストの世界に向けて準備を

顧客(および従業員)のニーズに対しクリエイティブかつ倫理的な代弁者としての責任を遂行するため、マーケターは彼らの期待値に関する知識と理解を深める必要があります。この知識と理解は、マーケターが組織における新興テクノロジーを使う際の「なぜ」を効果的に評価するのに役立ちます。企業・組織が格好の良い画像や洗練されたコンテンツに惑わされず、よりよい判断をすることができます。

また、質の高い多様なデータの入手可能性などの重要な要素に基づいて、組織に適切な実験やユースケースの選択を促す責任あるAI大使としてリーダーシップの役割を担うこともスキル向上にプラスになるのです。

最後に、多くの組織がAIファーストになっているように、私たちもAIファーストにならなくてはなりません。アクセンチュアが行ったリサーチによると、全勤務時間の40%がGPT-4のようなLLMから影響を受ける可能性があるということがわかりました。それは、私たち一人ひとりがAIの副操縦士を持つ可能性があるということを意味しています。

つまり、デジタルテクノロジー、とりわけ操作するAIシステムやLLMに指示を出すデータや振る舞いのような「バックエンド」について、より高い判断力を持つ必要があるということです。

こうしたことを学ぶことに残された時間はありません。今こそ自身の組織や業界に対してAI副操縦士がどのような効果をもたらすかについて、同僚やパートナーとの話し合いを始める時です。アイデアが持つ機会やリスクを生成AIでテストし、チームのAIファーストの世界への準備を意図的に取り組んでください。

著者プロフィール

米アバナード Michelle Baxter

金融サービス テクノロジーで 22 年以上の経験を持ち、Avanade Northeast の金融サービス チームを率いている。