1.社員が「会社の知らないAI」を使っている――シャドーAIという新しい現実
ChatGPTやGemini、Claudeといった生成AIが業務に浸透しはじめて、3年ほどが経ちました。多くの企業で「AIをどう活用するか」が議論されている一方、現場では別の動きがすでに進んでいます。社員が会社の許可を得ないまま、個人アカウントで生成AIを使い、業務情報を入力している――いわゆる「シャドーAI」です。
セキュリティ企業Cyberhaven1の調査では、社員がChatGPTに貼り付けたデータの一部に、社外秘や個人情報が含まれていたと報告されています。2025年2月には、セキュリティ企業Malwarebytesにより、ダークウェブ上で2,000万件を超えるChatGPTアカウントの認証情報が売買されているのが確認されました2。後の調査でOpenAIのシステム侵害ではなく、利用者の端末に感染した情報窃取型マルウェア経由で抜き取られたものと判明しています。社員が個人アカウントで業務に使っていれば、過去の会話履歴に残る顧客情報や契約書のやり取りが、本人も気づかぬ間に第三者の手に渡ることになります。さらに近年は、生成AIの法人利用ルールを設けないままの企業ほど、社員が個人契約で使い続けている傾向が複数の調査で示されています。
「うちは中小企業だから無関係」と感じられる方もいらっしゃるかもしれません。しかし規模が小さい企業ほど利用
実態を把握する仕組みがなく、リスクは静かに進行しているのが実情です。
2.シャドーAIとは何か――シャドーITとの連続と断絶
シャドーAIとは、会社が把握・承認していないAIサービスを、社員が業務目的で使っている状態を指します。総務やIT部門の許可なく使われる無料クラウドサービスや個人デバイス、いわゆる「シャドーIT」の延長線上にある問題です。
ただし、扱う情報の質と量が決定的に違います。従来のシャドーITは、ファイルのやり取りやメモ程度のものが中心でした。一方シャドーAIでは、業務文書、顧客情報、契約書ドラフト、開発中のソースコードなどを、社員が「より良い回答を引き出すため」にAIに丸ごと渡しているケースがあります。さらに、無料版や個人プランの多くは、入力データを学習に利用する仕様です。深く考えずに貼り付けた営業秘密や顧客情報が、外部AIの学習データに取り込まれてしまう可能性があります。
3.なぜシャドーITより深刻か――個人アカウントの落とし穴
シャドーAIがシャドーITよりも深刻と考える理由は三点あります。
第一に、データ流出の経路が見えません。社用PCに何もインストールせず、ブラウザだけで完結するため、従来のIT資産管理やネットワーク監視では捉えにくい性質を持っています。
第二に、責任の所在が曖昧になります。AIが生成した契約書ドラフトをそのまま提案書に流用したとき、誤った条項や著作権侵害が紛れ込む可能性があります。誰がチェックすべきだったか、組織として答えを用意できているでしょうか。
第三に、最初の事故が致命的になりやすい構造です。漏洩した情報がAIの学習に使われた場合、回収はほぼ不可能です。シャドーITには「サーバーから削除する」という選択肢がありましたが、シャドーAIにはそれがありません。一度の事故が、競合への情報流出や顧客への信用毀損として、長期にわたって影響を残すことになります。
4.「禁止」も「放任」も機能しない――第三の道としての統制された活用
「危ないなら全面禁止すればよい」という声もあります。しかし禁止には限界があります。AIを使いこなす社員と使えない社員の生産性差はすでに大きく、禁止すれば優秀な人材ほど離職するか、隠れて使い続けるかの二択になります。逆に放任すれば、いつか起きるかもしれない漏洩事故に備えがなく、組織として何も学べません。
第三の道は「統制された活用」です。要点は四つあります。一つ目に、ChatGPT EnterpriseやMicrosoft 365 Copilot、Gemini for Workspaceなど、入力データが学習に使われない法人契約への移行。二つ目に、顧客個人情報・未公開財務情報・契約書原本・ソースコードといった入力禁止情報の明示。三つ目に、利用ログの取得。四つ目に、社員教育です。規程よりリテラシーが先、というのが実務感覚に近いと思います。
中小企業にとって、これら四点を一度に整えるのは現実的ではありません。しかし「法人契約の用意」と「入力禁止情報の明示」の二点だけでも先行して着手すれば、経営として打てる手の質は明確に変わってきます。完璧な統制を目指すのではなく、リスクの大きいものから順に塞いでいく発想が必要です。
5.経営者としての向き合い方――小さく始めて、安全に広げる
経営者としてこの問題にどう向き合うか。三つのステップをおすすめします。
第一に、現状把握です。社員アンケートで構いません。誰がどのAIをどんな業務で使っているかを、まず可視化します。想定以上の利用実態が見えてくるはずです。
第二に、入力禁止情報リストの全社共有です。完璧なガイドラインを作る前に、最低限「これだけは入れない」という線を全員で揃えます。これだけで漏洩リスクは大きく下がります。
第三に、会社が公認するAI環境の用意です。法人契約の生成AIを一つ導入し、「業務で使うならここを使ってほしい」という選択肢を提示します。禁止よりも誘導のほうが、実効性は高いのが現実です。
シャドーAIは、技術の問題というより組織と統制の問題です。生成AIの活用戦略を語る前に、足元のこの問題から手をつけることが、結果的にAI活用の地力を高めることにつながります。社員が安心して使える環境を整えるからこそ、AIは経営の武器になり得るのです。ITコーディネータは、こうした経営とITをまたぐ課題の交通整理を担う立場です。「小さく安全に始める」設計を、ぜひ早めに進めていただければと思います。
■執筆者
積 高之
プロフィール
京都華頂大学准教授 京都積事務所 代表
WACA(ウェブ解析士協会)理事・事業推進部長/ITコーディネータ京都副理事長/エボラニ株式会社CMO/関西学院大学非常勤講師/上田安子服飾専門学校非常勤講師 /関西学院大学経営戦略研究科研究員
経営管理修士(MBA) 関西学院大学大学院経営戦略研究科卒/チーフSNSマネージャー/上級SNSエキスパート/上級ウェブ解析士/ITコーディネータ・業務DX推進士/SNSトレンドエグゼクティブマーケター/生成AIパスポート保有/地域DXプロデューサー/LINE Green Badge Advanced/Google AI Essentials/デジタル庁デジタル推進委員
広告・ブランディングの職務を経験後、コンサルタントとして独立。大手子供服SPA、酒販小売業チェーン、保険代理店などの顧問・コンサルタントを歴任。地方自治体・商工会議所等の講演多数
著書
ウェブ解析士協会公式テキスト2025
SNSマネージャー公式テキスト2025
2021年ウェブ解析士アワード
Best of the Best 2021受賞



