「全社員にChatGPTのライセンスを配ったのに、ログを見たら利用しているのは10人に1人だけだった」 「現場に説明しに行くと『今のやり方で困っていない』と言われ、会議が止まる」
AI業務導入を任された情シス・DX推進担当者の方であれば、このような壁にぶつかった経験があるのではないでしょうか。本記事では、2025年〜2026年の調査データと、note・Yahoo!知恵袋・公式ドキュメントから集めた一次情報を基に、現場従業員がAIを拒否する5つの理由と、それを情シス側からどう崩していくかを具体的に解説します。導入率の高さと利用率の低さのギャップに悩んでいる方は、ぜひ最後までお読みください。
「導入率57.7%」と「利用率1割」のあいだで起きていること
最初に、議論の土台となる数字を整理します。
野村総合研究所が2025年に実施した「IT活用実態調査」では、生成AIを「導入済み」と答えた企業は57.7%に達しました。日本情報システム・ユーザー協会(JUAS)の「企業IT動向調査2025」でも、言語系生成AIの導入企業(準備中を含む)は41.2%で、前年度の26.9%から14.3ポイント増えています。経営層から見れば、AI業務導入は順調に進んでいるように見える数字です。
一方、現場の利用実態は別の絵を見せています。Qiitaに掲載された情シス担当者の報告では、社内に配布したChatGPTの実利用率はおよそ1割以下にとどまったと述べられています。PwCの「生成AIに関する実態調査2025春」でも、ビジネスパーソン全体の生成AI利用経験率は2025年10月時点で21.7%。導入率の半分以下です。
つまり、ライセンス配布という「導入」のゴールテープを切った瞬間に、別のスタート地点に立たされている、というのが2026年の実情です。
現場がAIを拒否する5つの理由
ここからが本題です。現場から上がってくる反応を5つに分けます。3つや7つではなく、5つにしているのは、それぞれが別の打ち手を必要とするからです。
理由①「自分の仕事のどこで使えばいいか分からない」
サモテクが公開している「失敗7パターン」記事では、現場の声として「数回触って終わってしまいます」「適当な質問をしたら、適当な答えが返ってきた」が紹介されていました。Qiita記事の表現を借りれば、これは「使いどころが分からない」のではなく「使えるところがあまりない」という事象です。
社内固有の規則・取引先・案件履歴を知らないChatGPTは、現場の業務にそのまま当てはめると確かに精度が出ません。情シス側が「便利だから使え」と説明しても、現場の実感としては「便利じゃない」が先に来る構造になっています。
理由②「AIに任せたら、自分の仕事が無くなるのではないか」
これは口に出されにくい理由ですが、現場では確実に存在します。Togetterにまとめられた武田紘樹氏の投稿への反応では、福祉現場や昇格試験で「AIがそう答えたので」と発言した若手に対して、上司側から「使われる側になってどうする」という強い反発が出ていました。
裏返すと、現場にとってAIは「効率化の道具」と「自分の存在価値を脅かすもの」のどちらにも見える状態です。経営層はもっぱら前者を語り、その温度差が拒否反応を生みます。
理由③「セキュリティが怖くて入力できない」
サモテクの記事では「セキュリティ萎縮」が失敗パターンの1つに挙げられています。情シスがガイドラインを配ると、現場は「何を入れたらアウトなのか分からない」ため、結果的に「全部入れない」を選ぶようになります。
特に、自治体・医療・士業など個人情報を扱う部署ほどこの傾向が強く、Yahoo!知恵袋に投稿された製造業勤務者の質問でも、同僚がChatGPTの回答をそのままメールに貼っていることへの不安が綴られていました。
理由④「説明責任が果たせなくなる」
Togetterで武田紘樹氏が指摘したのが、「ChatGPTがやったので説明できない」と言ってしまう若手社員の問題でした。福祉現場では、利用者・家族への説明責任が求められる場面で「AIがそう答えました」では通らない、という実務的なつまづきが報告されています。
特にBtoBの提案・保険・法務・人事査定など、根拠の説明が成果物の価値そのものになっている職種では、AIに途中過程を任せることが業務の根幹を揺るがします。情シスが見落としやすい論点です。
理由⑤「失敗したときの責任を自分が取らされる」
人事評価やインシデント対応のルールがAI導入に追随していない会社では、現場は「AI出力を信じて顧客に出したらクレームが来た」という事故の責任が自分個人に紐づくことを警戒します。サモテクの記事にも「正直どんな効果が出ているのかわからない」という声が紹介されていますが、効果が見えないものに自分の評価を賭けたい人はいません。
これは心理的抵抗ではなく、評価制度の未整備という構造的な原因です。情シス単独では解決できず、人事部との連携が必須になります。
【現場でのつまづき】「ChatGPTがやったので説明できません」問題
ここから先は、現場から上がってきた一次情報のうち、最も象徴的な「説明責任の崩壊」事例について深掘りします。
Togetterに収録された報告では、福祉現場で40代の主任クラスが、利用者家族への説明の場で「これはAIがそう答えたので、私には分かりません」と発言してしまった事例が挙げられていました。投稿には「使われる側になってどうする」「AIは使うものであって、使われるものではない」というコメントが共感と一緒に寄せられています。
似た現象は昇格試験でも起きていて、面接官が「あなたの考えを聞きたい」と言っているのに、受験者がChatGPTの回答をそのまま読み上げてしまう。Yahoo!知恵袋の質問でも、同僚が「GPTがこう言っているので問題ない」と判断根拠にしていることへの危うさが投稿されていました。
つまり、AIを禁止するわけにもいかず、放任すると説明責任が崩壊する。情シスの視点からは「使え」と「考えろ」を同時に要求しなければならない難しい局面です。Qiita記事が指摘していた「教育より技術的アプローチを優先せよ」という主張だけでは、この問題は解けません。
拒否反応を6週間でほぐす、4つのワークアラウンド
ここからは、note・Qiita・Yahoo!知恵袋の一次情報と、サモテクが提示した「失敗の9割は導入の仕方と運用設計のミス」という分析を組み合わせて、情シス側の現実的な手の打ち方を整理します。6週間で動かせる手順です。
① ライセンス配布より先に「使えない業務リスト」を社内公開する
通常の導入は「使ってみてください」から始まりますが、これを反転させます。「使ってはいけない業務」「使っても効果が薄い業務」を先に社内Wikiに掲載してしまうのです。
サモテクの記事にあった「セキュリティ萎縮」の正体は、判断基準の不在でした。アウトの線が見えれば、現場は逆にセーフの範囲で動けるようになります。Qiitaの情シス報告でも、利用率が伸びなかった企業の共通点として「社内情報の取り扱い基準が曖昧」が挙げられていました。
② 「説明できないアウトプットは納品禁止」を会社のルールにする
理由④の説明責任崩壊を防ぐ唯一の方法は、技術ではなくルールです。「AIが出した文章であっても、自分の言葉で1分間説明できないものは社外に出してはいけない」という1行を、業務マニュアルかコンプライアンス規定に追加します。
Togetterのコメント欄で複数の管理職が支持していた「AIは使うものであって使われるものではない」という原則を、ポエムではなく規程の文言に落とすイメージです。これだけで福祉現場や提案書作成の現場で起きていた「AIがそう言ったので」事故は大きく減らせます。
③ 「成功事例の社内展示会」より「失敗事例の共有会」を月1で開く
導入推進の定番は「使いこなしている人を表彰する」ですが、現場の心理的抵抗が強い時期にこれをやると、使えていない人の疎外感が増幅します。
代わりに、月1回30分でいいので「今月、AIで失敗した人」を持ち回りで共有する会を開きます。サモテクが提示した7パターンの失敗を、自社の言葉で蓄積していくイメージです。これは「失敗してもいい場所」を作る効果があり、理由⑤の評価リスクを軽減します。
④ 情シスではなく人事部とセットで現場説明会に行く
理由⑤の根本である「失敗したときの評価リスク」は、情シスがいくら「大丈夫」と言っても解消できません。人事部の担当者が同席して「AIを使った業務での失敗は、個人の評価に直結させない」と明言することが必要です。
これはNRIの「IT活用実態調査2025」が指摘していた「リテラシーやスキル不足を課題と回答した企業が70.3%」というデータの裏側にある問題でもあります。スキルを上げる前に、スキル習得の時間を取ったことを評価する制度がなければ、現場は学習に時間を割けません。
セキュリティと「シャドーAI」の逆現象
理由③のセキュリティ不安には、もう1つ厄介な副作用があります。会社が「業務PCでのChatGPT利用は禁止」と決めた瞬間、現場はスマホで個人アカウントを使い始めます。いわゆるシャドーAIです。
総務省の令和7年版情報通信白書では、企業におけるAI利用が急速に広がる一方、ガバナンスの整備が追いついていない状況に触れています。「禁止」の貼り紙だけで対応すると、入力されてはいけない顧客情報が個人のスマホ経由で外部サービスに渡る経路が生まれ、情シスの管理下から完全に外れます。
対策の方向は2つで、(A)法人契約の生成AIをポリシー込みで配布する、(B)入力可能な情報のホワイトリストを作る、この組み合わせです。「全面禁止」も「全面許可」も、現場の拒否反応とシャドーAIを同時に育ててしまうという点で、最悪の選択肢になります。
公的支援・補助金の現状(情シス目線で押さえる4制度)
AI業務導入の費用面で情シスが押さえておくべき公的制度を、2026年4月時点で確認できる範囲で整理します。
- IT導入補助金(通常枠・インボイス枠):中小企業庁が所管、生成AIを含むSaaSが対象になり得る。詳細は公式サイトで最新の公募要領を確認のこと。
- 人工知能基本計画:2026年2月、日本初のAI基本計画が閣議決定され、規制と投資の方向性が示されました。情シスの稟議書で「国策として後押しがある」と書ける材料になります。
- DX推進指標:経済産業省が公開している自己診断ツール。現場拒否の数値化が難しいときに、共通言語として使えます。
- 関西DX戦略Next(2026年4月公表):関西経済連合会が「AI活用などによるDXの好循環」を打ち出した方針。地域ごとの支援策の動きを追う材料になります。
補助金の細かい金額・採択率は年度ごとに変わるため、本記事では断言を避けます。社内稟議に使う際は必ず公式の最新公募要領を確認してください。
よくある質問
Q1. 利用率を「数値KPI」で管理してもよいのでしょうか?
サモテクの記事では「効果測定の欠如」が失敗7パターンの1つに挙げられていました。一方で、利用率のみを追うと現場が「使った形だけ作る」行動に走ります。利用率と並べて、理由④の説明責任が果たせているか(成果物に個人の判断が入っているか)を質的に評価する仕組みが必要です。
Q2. 「全社員研修」はやるべきでしょうか?
NRIの調査ではリテラシー不足を課題とする企業が70.3%でしたが、研修だけで解決した事例は多くありません。研修よりも、上で挙げた「失敗共有会」「説明禁止ルール」「人事との同席説明会」のほうが現場の動きを変えやすい、というのが一次情報から見える傾向です。
Q3. 経営層から「もっと早く成果を出せ」と言われています
サモテクが指摘した「導入企業の約7割が期待した成果を得られていない」という数字を共有するのが第一歩です。そのうえで、6週間ワークアラウンドの①〜④を順番に踏むスケジュールを提示し、「いきなり成果」ではなく「拒否反応を下げる」を中間ゴールに置き直すことを提案してください。
Q4. 情シスが現場に嫌われていて、説明会を開いても人が来ません
これは情シスではなく現場のキーパーソン(部門のベテラン)に最初の利用者になってもらう経路が有効です。Togetterのコメントで支持を集めていたのも、若手ではなく中堅・主任クラスからの発言でした。誰が話すかが、何を話すかと同じくらい重要になります。
まとめ:AI業務導入は配って終わりではなく「拒否反応の管理」から始まる
最後に、本記事の要点を5つに整理します。
- 2025年時点で生成AI導入率は57.7%まで到達したが、社内利用率は1割前後にとどまる企業が多い(NRI/JUAS/Qiita)
- 現場の拒否理由は1つではなく、「使い道が見えない」「仕事を奪われる不安」「セキュリティ」「説明責任」「評価リスク」の5つに分かれる
- 特に説明責任の崩壊(AIがやったので分かりません問題)は、ルールで明示しないと現場で事故が起きる
- 情シスがやるべきは、ライセンス配布より先に「使えない業務リスト」「失敗共有会」「人事部との合同説明会」などの運用設計
- シャドーAI対策は「禁止」ではなく「ホワイトリスト+法人契約」の組み合わせで、シャドー化と拒否反応の同時発生を防ぐ
AI業務導入は、テクノロジーの問題に見えて、実態は人と評価制度の問題です。情シス・DX推進担当者の方が現場で最初に交わすべき会話は、「このツールはすごい」ではなく、「あなたの仕事のどの部分は、絶対にAIに渡したくないですか」かもしれません。そこから逆算して入れていく方が、その後の利用率が違ってきます。
参考
- ChatGPTを社内に配ってもあまり使われない本当の理由(Qiita)
- ChatGPT業務活用で失敗する企業の7パターン(サモテク)
- 「ChatGPTがやったので説明できない」はやめて(Togetter)
- 仕事でのChatGPT活用についての質問(Yahoo!知恵袋)
- 企業IT動向調査2025 プレスリリース(JUAS)
- NRI「IT活用実態調査(2025年)」 57.7%が生成AI導入済み
- 生成AIに関する実態調査2025春 5カ国比較(PwC Japan)
- 令和7年版 情報通信白書 企業におけるAI利用の現状(総務省)
- 生成AI導入はゴールではない(財務省広報誌)
- 関西DX戦略Next(関西経済連合会)



