第3話|情報漏えい ── 入力ガードと「渡してよい/だめ」の境界線

タグ一覧を見る

「禁止 / 条件付き / 自由」の 3 段階データ分類と、入力ガード・社内 LLM・事故時対応テンプレを含めた情報漏えい対策を紹介する。

「便利だから貼り付けた」で起きる情報漏えいを、入力ガードと 3 段階データ分類で防ぐ回。

「便利だから貼り付けた」が一番危ない

AI 利用で一番起きやすい事故は、悪意ではなく「便利だから貼り付けた」です。議事録、契約書、顧客名簿、社内資料、メール本文。ChatGPT にそのまま貼り付けて要約させた瞬間に、社外サーバーへ機密情報が渡ります。

事故の出口を塞ぐより、入り口で「渡してよいデータ / 渡してはいけないデータ」の境界を引いた方が確実です。今回は境界の引き方と、入力ガードの作り方を扱います。

渡してはいけないデータ 4 分類

次の 4 分類は、原則として外部 AI サービスに渡しません。

  1. 1. 顧客個人情報:氏名・連絡先・購買履歴・属性情報
  2. 2. 未公開の事業情報:未発表の戦略・売上・原価・取引条件
  3. 3. 第三者の機密:他社から預かった資料・NDA 対象データ
  4. 4. 認証情報:パスワード・API キー・トークン・社員番号

業種によってはここに「医療情報」「金融情報」「個人を特定できる写真」などが追加されます。法務と情シスで 1 度議論し、自社版の禁止 4-6 分類を作ります。

「条件付きで渡してよい」グレーゾーン

完全禁止だけでは AI が使えなくなります。条件付きで渡せる領域も明示します。

  • - 公開済みの資料(プレスリリース・公式サイト・公開済 IR):自由
  • - 個人情報を含まない議事録:マスキング後に渡す
  • - 顧客から「AI 使用に同意」を得た案件:契約上の許可下で渡す
  • - 業務委託先の中間成果物:契約書の AI 利用条項を確認したうえで

「禁止」「条件付き」「自由」の 3 段階で分類し、条件付きでは何をマスキングするかまで決めます。

入力ガードの仕組み

人の意識だけに頼ると、忙しいときに事故が起きます。次の 3 段階で仕組み化します。

  1. 1. 教育:四半期 1 回、禁止データ 4 分類の研修を行う
  2. 2. ツール選定:データ学習に使われない契約形態(API 直接 / Enterprise / オンプレ)を採用する
  3. 3. ガード:DLP(Data Loss Prevention)やプロキシで、機密パターンの送信を検知する

特に 2 は重要です。同じ AI モデルでも、Web UI 版と API 版・Enterprise 版でデータの扱いが違います。利用規約を読み、「学習に使われない」契約条件で導入します。

社内 LLM という選択肢

外部に渡せないデータが多い業務(医療・金融・法務・大規模製造)は、社内 LLM を立てる選択肢があります。

  • - オンプレや専用クラウドにモデルを置く
  • - データは社外に出ない
  • - 性能は外部サービスより 1-2 段落ちる
  • - 運用コストはかかる

「外部 AI で処理速度を取る」「社内 LLM で安全を取る」の二者択一ではなく、業務ごとに使い分けます。一般的な情報は外部、機密は社内、と振り分けられる設計が現実的です。

事故時の対応も決めておく

それでも事故は起きます。発生時の対応手順を事前に決めます。

  • - 30 分以内に情シス・法務に通報するルート
  • - 漏えい範囲・影響者の特定
  • - 顧客への通知判断(個人情報保護法の通知義務)
  • - 再発防止の社内通達

事故対応のテンプレも 1 枚作っておくと、当日の判断が早くなります。

この回のまとめ:

  • - 「禁止 / 条件付き / 自由」の 3 段階でデータを分類する
  • - 顧客情報・未公開事業情報・第三者機密・認証情報は原則禁止
  • - 教育・契約形態・ガードの 3 段で仕組み化する
  • - 社内 LLM の選択肢も業務単位で検討する

シリーズ

リスク判定 ── AI 活用の安全基準を 10 軸で整える

第3回 / 全10本

第1回

第1話|AI リスクは 5 種に分けて見る ── 全部「危ない」で止めない

AI リスクを 5 分類(正確性・情報漏えい・法務・第三者・レピュテーション)で扱う入り口回。

この記事へ移動

第2回

第2話|ハルシネーション ── もっともらしい嘘との付き合い方

ハルシネーションをゼロにできない前提で、出典・確信度・二重チェックの 3 点で被害を押さえる回。

この記事へ移動

第3回

第3話|情報漏えい ── 入力ガードと「渡してよい/だめ」の境界線

「便利だから貼り付けた」で起きる情報漏えいを、入力ガードと 3 段階データ分類で防ぐ回。

現在表示中の記事です。

この記事を開く

第4回

第4話|著作権 ── 学習データ・出力・引用の 3 段で見る

著作権リスクを「学習」「出力」「引用」の 3 段に分け、商業利用 5 チェックで安全に使う回。

この記事へ移動

第5回

第5話|個人情報 ── 識別性・同意・越境の 3 観点

個人情報を識別性・同意・越境の 3 観点で見、マスキング 3 レベルと違反パターン 5 件を掻える回。

この記事へ移動

第6回

第6話|商標・誤認混同 ── 「他社に似てしまう」事故の防ぎ方

AI 生成の名前・ロゴ・コピーで「他社に似てしまう」事故を、事前確認 4×3×2 段で防ぐ回。

この記事へ移動

第7回

第7話|業法・規制 ── 業界ごとに違う「AI に任せてはいけない判断」

医療・金融・士業・教育・建設運輸の業法規制下で AI を补助具に留める設計を扱う回。

この記事へ移動

第8回

第8話|ブランド毀損・炎上 ── 差別表現・偏見・トーンの事故を防ぐ

違法ではないが評判を壊す事故を、差別表現 4 領域・偏見固定・トーンと NG リストで防ぐ回。

この記事へ移動

第9回

第9話|第三者リスク ── ベンダー停止・規約変更・モデル仕様変更への備え

AI ベンダーの停止・規約変更・モデル仕様変更・価格改定の 4 シナリオに BCP を備える回。

この記事へ移動

第10回

第10話|自社用判断シート ── A4 1 枚にまとめる総まとめ

9 話分を A4 1 枚に束ね、業界×社風×規模で 3 タイプに書き分ける総まとめ回。

この記事へ移動

関連シリーズ

近いテーマのシリーズ

現在の記事カテゴリ: 導入・運用

リスク 運用ルール 判断基準

導入・運用 / 全10本

導入設計

AI導入を実運用に乗せるため、設計や運用ルールの考え方を整理します。

共通タグ: 運用ルール

導入 設計 運用 運用ルール

このシリーズを読む

導入・運用 / 全10本

部署別運用

部署ごとのAI運用を、巻き込み方とルールづくりから整理します。

共通タグ: 運用ルール

部署ごとの使い方 運用 運用ルール

このシリーズを読む

AI入門 / 全10本

プログラミング不要のAIサバイバル

プログラミング不要でAI時代を生きるための、ふつうの人向け基礎教養です。

入門 生成AI ひとりで使う

このシリーズを読む

AI入門 / 全10本

クリエイターとAI

創作や制作の現場で、生成AIとの役割分担と作品づくりの判断を整理します。

クリエイティブ業務 生成AI 作品づくり 業務活用

このシリーズを読む

導入・運用 / 全10本

実務テンプレート

日々の実務で使えるAIテンプレートを、自分用に整えるためのシリーズです。

共通タグ: 運用ルール

テンプレート 運用 運用ルール

このシリーズを読む