生成AIで作った文章や資料を、大きな手直しなしでそのまま仕事で提出・共有する──。ChatGPTやCopilotなどの普及に伴い、こうした行動が職場で広がりつつあります。

「自分はやるけど、他人にやられたら嫌だ」──現場ではそんなダブルスタンダードが生まれているのか。マイナビニュース会員485人への独自調査から、AI生成物提出の実態、他者への評価、そして懸念の正体をデータで明らかにします。

【調査概要】

  • 調査対象:マイナビニュース会員 485人(うちIT関連技術職135人)
  • 調査期間:2026年4月28日~5月7日
  • 調査方法:インターネットアンケート

生成AIを日常的に使う人の5割が「そのまま提出」経験あり

まず、回答者の生成AI利用状況(利用頻度)から見ていきましょう。

  • 仕事で生成AI(ChatGPT、Copilot、Gemini、Claude など)を使ったことがありますか? の回答結果グラフ
仕事で生成AIをどの程度利用していますか?
日常的に使っている 30.5%
たまに使っている 31.8%
試したことはあるが、今はあまり使っていない 12.8%
使ったことがない 24.9%

今回の調査では、仕事でChatGPTやCopilotなどの生成AIを「日常的に使っている」と答えた人が30.5%、「たまに使っている」が31.8%で、合計すると約6割が業務で生成AIの利用経験ありという結果でした。

では、生成AIが作成した文章や資料を「ほぼそのまま(大きな手直しなしで)」提出・共有したことがあるかという質問に対しては、全体の29.7%が「何度もある」または「1〜2回ある」と回答しています。

注目すべきは、利用頻度別の違いです。「日常的に使っている」層に絞ると、この割合は52.0%にまで上昇します。日常的に生成AIを使う人の2人に1人が"そのまま提出"した経験を持つことになります。

一方、「たまに使っている」層では35.1%、「試したことはあるが今はあまり使っていない」層では17.7%と、生成AIの利用頻度が下がるにつれて「そのまま提出」の経験率も明確に下がっていきます。

  • 生成AIが作成した文章や資料を、ほぼそのまま(大きな手直しなしで)仕事で提出・共有したことがありますか? の回答を生成AI利用頻度の回答とクロス集計したグラフ
利用頻度別:生成AIの出力を「ほぼそのまま」提出した経験
  何度もある 1〜2回ある 手直し後に提出※1 AI作成経験なし※2
日常的に使っている(n=148) 38.5% 13.5% 44.6% 3.4%
たまに使っている(n=154) 8.4% 26.6% 50.0% 14.9%
試したことはあるが…(n=62) 3.2% 14.5% 33.9% 48.4%
使ったことがない(n=121) 1.7% 0% 0% 98.3%

※1「手直ししてから提出するので、そのままはない」の略記
※2「生成AIで文章や資料を作ったことがない」の略記

生成AIから「そのまま提出」を許すか、許さないか

ここからが本題です。

「自分はそのまま提出するけれど、他人がやったら許せない」──生成AIの利用が広がるなか、こうしたダブルスタンダードが職場に生まれているのではないか。そんな仮説を検証するため、「同僚や部下がAI生成物をほぼそのまま提出・共有していた場合、どう感じるか」を全員に聞きました。

  • 同僚や部下がAI生成物をほぼそのまま提出・共有していた場合、どう感じるか? の回答グラフ
同僚・部下がAI生成物をそのまま提出していたらどう感じますか?
問題ない 10.9%
内容次第では問題ない 49.7%
あまり好ましくない 25.2%
問題だと思う 14.2%

全体で見ると、「問題ない」+「内容次第では問題ない」が合計60.6%で、過半数は容認の姿勢です。ただし、この数字だけを見て「職場は寛容だ」と結論づけるのは早計です。ポイントは、誰が寛容で、誰が厳しいのかにあります。

結果は、予想を覆すものでした。

「自分はOK、他人はNG」は起きていたのか?

そのまま提出した経験が「何度もある」と答えた層は、90.5%が「問題ない」または「内容次第では問題ない」と回答しています。「1〜2回ある」層でも84.3%が容認。自分がやっている人は、他人がやっても許容するという、一貫した態度が確認されました。

  • 「そのまま提出」経験別、他人がAI生成物をそのまま提出・共有した場合の容認率グラフ
提出経験別:他者の「そのまま提出」への評価
  容認系 否定系
何度もある(n=74) 90.5% 9.5%
1〜2回ある(n=70) 84.3% 15.7%
手直ししてから提出(n=164) 52.4% 47.6%
生成AIで作成したことがない(n=177) 46.3% 53.7%

※「容認系」=「問題ない」+「内容次第では問題ない」の合計。「否定系」=「あまり好ましくない」+「問題だと思う」の合計

この数字を見ると、「自分はOK、他人はNG」というズレは、少なくとも今回の485人調査では成立していません。

実際に、IT関連技術職の部長クラスからはこんな声が寄せられています。

「ベテラン社員よりも新入社員の作った成果物の方が顧客の評判が良い事(がある)」(IT関連技術職・部長クラス・日常的に使用)

AIを活用した成果物が実際に評価されている現場では、「使ったこと自体」を問題視する空気は薄れつつあるようです。

一方で、こんなコメントも。

「目標の計画で使ったけどばれなかった」(非IT関連職・一般社員・日常的に使用)

「ばれなかった」という表現の裏には、"ばれたらまずい"という意識がまだ残っていることがうかがえます。

容認・否定を分けるのは、そのまま提出した経験の有無

ここで注目したいのは、そのまま提出した経験がない層との対比です。

「手直ししてから提出するので、そのままはない」層では容認率が52.4%、「生成AIで文章や資料を作ったことがない」層では46.3%にとどまります。自分自身が「そのまま提出」を経験しているかどうかが、他者への評価を大きく左右している構造が浮かび上がります。

では、「そのまま提出」に抵抗を感じる人は、具体的に何を気にしているのでしょうか。データをさらに深掘りすると、現場に根強い「抵抗の正体」と、同じ日常利用者の間に走る「深い分断」が浮かび上がってきそうです。

懸念の正体は「ズルい」より「危うい」、倫理ではなく品質だった

「そのまま提出」に対する懸念として最も多かったのは、「内容の正確性に不安がある」(50.5%)でした。次いで「事実確認や推敲が不十分になりやすい」(40.2%)、「著作権や情報漏洩のリスクがある」(33.8%)と続きます。

  • 生成AIの出力をそのまま提出・共有することに対して気になる点は? の回答グラフ(複数回答)
生成AIの出力をそのまま提出することの懸念点(複数回答)
内容の正確性に不安がある 50.5%
事実確認や推敲が不十分になりやすい 40.2%
著作権や情報漏洩のリスクがある 33.8%
手抜きだと思われそう 21.2%
自分の能力が疑われそう 19.4%
※複数回答のため合計は100%を超えます

一方、「手抜きだと思われそう」は21.2%、「自分の能力が疑われそう」は19.4%にとどまりました。つまり、抵抗感の中心は「ズルい」「不誠実だ」という倫理的な批判ではなく、「中身は大丈夫なのか」という品質への不安に寄っているのです。

この傾向は、自由記述からも裏づけられます。有意なコメント252件のうち、品質懸念に分類されたコメントは75件、倫理懸念は20件でした。品質側のコメント数が倫理側の約3.75倍にのぼります。

「生成AIは平気で嘘をつくので、事実確認は欠かせない」(IT関連技術職・一般社員・日常的に使用)

「忙しく、AI生成したものをそのまま提出したら誤字が多くて怒られた」(IT関連技術職・一般社員・日常的に使用)

「普段社内で偉そうにしている重役が明らかに生成AIを使って作った資料をあまり確認しないまま社内の主要な会議で使い、各方面から論理の矛盾やハルシネーションと思われる内容を指摘され、公に赤っ恥をかいていた」(非IT関連職・一般社員・日常的に使用)

興味深いのは、日常的にAIを使っている層ほど品質懸念が高いという点です。「内容の正確性に不安がある」の選択率は、日常利用層で58.1%と全層で最高を記録しています。使い込んでいる人ほど、AIの出力がそのままでは使えない場面を経験しており、品質リスクを肌感覚で知っていることがうかがえます。

分かれ目は「使うかどうか」ではなく「直すかどうか」

ここまでの分析で、「そのまま提出」の経験者は他者にも寛容であることがわかりました。では、同じ「日常的に使っている」層の中では、意見は一枚岩なのでしょうか。

答えはノーです。

日常利用層(n=148)の中でも、自分が「手直しして提出する派」かどうかで他者の容認に約38ポイントの差が開きます。

  • 生成AI日常利用層における提出行動別の他者評価 の回答グラフ
【生成AI日常利用層】手直しの有無別:他者評価
  容認系 否定系
何度もある(そのまま提出、n=57) 93.0% 7.0%
手直ししてから提出(n=66) 54.5% 45.5%

※「容認系」=「問題ない」+「内容次第では問題ない」の合計。「否定系」=「あまり好ましくない」+「問題だと思う」の合計
※対象:生成AIを「日常的に使っている」回答者(n=148)

つまり、AIを使うか使わないかではなく、出力をそのまま使うか、自分で手を加えて修正するかが、容認と否定の分水嶺になっているのです。

この構図は、現場の声にも表れています。

「これからは資料の正確性を確認することが、社員のする仕事になってくる」(非IT関連職・経営者・たまに使用)

「AIで作成した文書は、内容に間違いがある前提で取り扱っている。事実関係の確認を行う手間はかかるが、初期作業の情報収集や文章や資料構成等は格段に楽になるので、事実関係だけしっかり押さえれば確実に業務スピードは上がると思うので、積極的に活用すべきと考えます。」(IT関連技術職・一般社員・日常的に使用)

「AIに書かせること」自体は、もはや問題の焦点ではない。問われているのは「ちゃんと確認したか」──データも現場の声も、同じ結論を示しています。

最も手厳しいのは「使うのをやめた人」だった

最後に、もうひとつ意外な事実を紹介します。

AI生成物の「そのまま提出」に対して、最も否定的な反応を示したのは、「試したことはあるが、今はあまり使っていない」層(n=62)──いわば一度試して離れた人たちでした。

この層の否定割合(あまり好ましくない+問題だと思う)は53.2%に達し、利用頻度別の各層で最も高い数字を記録しました。僅差ながら「使ったことがない」層の51.2%をも上回っています。

  • 利用頻度別:他者の「そのまま提出」に対する否定率 のグラフ
利用頻度別:他者の「そのまま提出」に対する否定回答の割合
日常的に使っている 25.7%
たまに使っている 37.7%
試したことはあるが、今はあまり使っていない 53.2%
使ったことがない 51.2%

※「否定系」=「あまり好ましくない」+「問題だと思う」の合計

この層の自由記述には、かつて生成AIを試したうえでの失望や警戒がにじむコメントが目立ちます。

「頭を使わなくなるので大量解雇される流れしか見えない」(非IT関連職・係長クラス・試したことはあるが今はあまり使っていない)

「便利な機能だとは思うが、AIの情報が正しいとは限らないし、だれが作成しても同じような答えにしかなりかねない懸念もあり、本人のオリジナリティや文章の信憑性を疑う事態にもなりかねないと思う。」(非IT関連職・一般社員・試したことはあるが今はあまり使っていない)

現役利用者よりも、離脱者のほうが厳しい。この構図は単に「慣れの問題」では片づけられない、AIツールに対する期待と幻滅の落差を反映しているのかもしれません。

なお、この「試したことはあるが、今はあまり使っていない」層はn=62とサンプルサイズが限られるため、あくまで傾向として捉える必要があります。

まとめ:調査から見えた3つのこと

最後に、今回の調査結果を3つのポイントに整理します。

1.「自分はOK、他人はNG」は幻だった

「そのまま提出」の経験者は、他人が同じことをしても9割が容認。予想されがちなダブルスタンダードは、今回の調査では成立していませんでした。

2. 懸念の正体は「倫理」ではなく「品質」

「ズルい」「不誠実だ」という批判より、「中身は正確なのか」「確認は十分なのか」という品質不安が圧倒的に上回りました。使い込んでいる人ほど、この懸念が強い傾向にあります。

3. 分かれ目は「使うか」ではなく「直すか」

同じ日常利用者でも、「そのまま出す人」と「手直しする人」で他者評価に約38ポイントの差。AIを使うこと自体はもはや問題ではなく、出力をどう扱うかが評価の分水嶺になっています。


社内でAI利用のルールを議論するとき、「使うな」と禁じるだけでは、現場の実態と噛み合いません。今回のデータが示すのは、「どう確認するか」にフォーカスしたほうが、職場のコンセンサスは得やすいということです。

言い換えれば、生成AI利用ガイドラインの力点は「AIの使用手段を制限すること」ではなく、「出力の品質責任は提出者にあることを明確にすること」に移りつつあるのではないでしょうか。

「情報の出典を明記する必要がある時は、生成AIが集めて来た情報が本当に正確かどうか人の目で情報源をチェックしてから使用する事としている」(IT関連技術職・一般社員・たまに使用)

「AIを使うことに問題はないが使われてはいけない 線引きが重要」(非IT関連職・部長クラス・日常的に使用)

「AIに使われる」のではなく、「AIを使いこなす」ために。その線引きを組織としてどう設計するかが、これからの課題になりそうです。

次回予告

今回は、「提出する側」の実態と評価にフォーカスしました。しかし、知らず知らずのうちに「AIが書いた」と見抜かれているケースも少なくありません。次回は視点を変えて、「受け取る側」の調査結果から、「これ、AIが書いたな…」と感じたときの職場の本音に迫ります。