【AI×個人情報マナー】ChatGPTに入力してはいけない情報のチェックリスト10選

デジタルマナー
🔊この記事を音声で聞く

「お客様からクレームメール、ChatGPTで返信文を考えてもらおう」──そう思ってお客様の氏名・住所・電話番号をそのまま貼り付けたあなた。その瞬間、個人情報保護法違反のリスクが発生しているかもしれません。

2023年6月、日本の個人情報保護委員会(PPC)は「生成AIサービスの利用に関する注意喚起」を公表し、AIに入力された個人データが学習に使われる場合は「第三者提供」に該当する可能性が高いと明言しました。同年、欧州ではイタリアのデータ保護当局がGDPR違反の疑いでChatGPTを一時使用禁止に。AIの便利さに浮かれているうちに、私たちはうっかり世界規模のコンプライアンス違反を犯しかねないのです。

なぜAIに個人情報を入力してはいけないのか

リスク1:学習データに取り込まれて二度と消せない

ChatGPTやGeminiは、ユーザーが入力したプロンプトを将来のモデル再学習のデータセットとして取り込む可能性があります。一度AIモデルの「重み」に取り込まれた個人情報は、ニューラルネットワークの内部に「概念」として記憶され、後からアカウントを削除しても、モデル内部から特定の情報を完全に消去することは技術的に極めて困難です。

リスク2:第三者の回答に出てしまう「AI情報漏洩」

2023年3月のサムスン電子の事例では、エンジニアが業務効率化のためChatGPTに半導体関連のソースコードや会議録を入力し、わずか20日間で3件の重大な情報漏洩が発生。サムスンはその後、社内ネットワークからのコンシューマー版AI利用を全面禁止しました。

リスク3:個人情報保護法・GDPR違反の重大なペナルティ

個人情報保護委員会(PPC)の注意喚起では、AIに入力された個人データが学習に使われる仕組みなら「第三者提供」に該当する可能性が高いとされ、原則として本人の事前同意が必須。GDPRの違反時の制裁金は「全世界年間売上の4%」または「最大2,000万ユーロ(約32億円)」のいずれか高い方です。

入力NG情報10選チェックリスト

  • NG1:顧客の氏名・住所・電話番号 — 「田中様」「鈴木健一郎様」もすべて「Aさん」「Xさん」に置換
  • NG2:メールアドレス — 本文中・署名欄からアドレスを必ず削除。「to_customer@example.com」のようなダミーに置換
  • NG3:クレジットカード番号・決済情報 — 番号を伏字にするだけでは不十分。「カード番号」とだけ書き、具体的な数字は一切入れない
  • NG4:マイナンバー・各種ID番号 — マイナンバー法で利用目的が厳格に制限。運転免許証番号、パスポート番号、保険証番号、社員番号も同様
  • NG5:病歴・健康情報・メンタルヘルス — 個人情報保護法上の「要配慮個人情報」。本人の明示的同意が必須
  • NG6:給与・銀行口座・財務情報 — 氏名は「Aさん」、金額も「年収X万円」と抽象化
  • NG7:顔写真・声・生体データ — GDPR上「特別カテゴリの個人データ」として極めて厳格に保護
  • NG8:社内文書(議事録・人事評価・企画書) — 発言者名を「参加者A」「参加者B」に置換し、固有名詞を伏せた状態で渡す
  • NG9:取引先の機密情報・契約書 — NDA違反は契約解除や損害賠償請求に直結。取引先名・担当者名・金額・型番は仮名化
  • NG10:自分自身のパスワード・APIキー・秘密の情報 — コードや設定ファイルを共有する前に、必ず認証情報をプレースホルダーに置換

国内外の規制まとめ

規制適用範囲違反時の罰則
個人情報保護法(日本)日本国内で個人情報を取り扱う事業者命令違反は1年以下の懲役または100万円以下の罰金、法人は最大1億円
GDPR(EU)EU居住者の個人データを扱うすべての企業(域外も対象)全世界年間売上の4%または最大2,000万ユーロ(約32億円)
EU AI法EU市場でAIシステムを提供・利用する事業者最大3,500万ユーロまたは全世界年間売上の7%
CCPA/CPRA(米加州)カリフォルニア州居住者の個人情報を扱う一定規模以上の事業者1件あたり最大7,500ドルの民事制裁
マイナンバー法(日本)マイナンバーを取り扱うすべての事業者不正提供は4年以下の懲役または200万円以下の罰金

特に注目すべきはGDPRの「越境適用」。日本企業であっても、EUの顧客・観光客・出張者のメールアドレスや氏名がデータベースに含まれていれば適用対象です。

安全に使うための「マスキング」テクニック

テクニック1:固有名詞を「Aさん」「B社」に置換する

  • NG例:「鈴木一郎様(東京都港区)から、4月10日のお見積もり10,235,000円について確認の電話がありました」
  • OK例:「Aさん(関東在住)から、先月のお見積もりX円について確認の電話がありました」

「マスキング → AI処理 → アンマスキング」の3ステップを習慣化しましょう。

テクニック2:数値を「仮の値」に置き換える

  • 金額:「年収782万円」→「年収X万円(7桁台)」
  • 電話:「090-1234-5678」→「090-XXXX-XXXX」
  • 口座:「1234567」→「ダミー口座番号」
  • カード番号:具体的数字を一切入れず「カード番号」とだけ記載

テクニック3:プロンプトの最後に「禁止事項」を明記

  • 「※固有名詞は推測せず、Aさん・B社のまま回答してください」
  • 「※実在の人物・企業名は出力に含めないでください」
  • 「※具体的な数字や金額は出力に書き起こさないでください」

テクニック4:エンタープライズ版AIを使う

ChatGPT Enterprise、Microsoft 365 Copilot、Gemini for Workspace、Azure OpenAI Service などは、いずれも「入力データを学習に使わない」ことが契約上保証されており、暗号化やコンプライアンス認証も整っています。

万が一入力してしまった場合の対処法

  1. 該当する会話履歴を直ちに削除する(ChatGPTなら「設定 → データコントロール → チャット履歴のクリア」)
  2. 学習利用のオプトアウト設定を確認(「設定 → データコントロール → モデルの改善」をオフ)
  3. 社内のセキュリティ・法務担当に報告(隠蔽せず、入力日時・サービス名・情報の種類と概数・経緯を共有)
  4. 同じミスを繰り返さない仕組みづくり(マスキング自動化ツール、社内ガイドライン明文化、定期研修、エンタープライズ版への移行、DLP導入)

個人情報保護法では、個人データの漏洩等が発生した場合に個人情報保護委員会への報告と本人への通知が義務化されています。隠蔽が発覚した場合のダメージは、初動の率直な報告とは比べものにならないほど大きくなります。

まとめ:AI時代の新しい個人情報マナー

AI時代の個人情報マナーの核心は、たった一つのシンプルな原則。「自分以外の誰かの情報は、必ずマスキングしてから入力する」。氏名は「Aさん」、会社名は「B社」、金額は「X円」、メールアドレスはダミーに──この習慣を体に染み込ませるだけで、個人情報漏洩リスクの9割以上は防げます。

AIは「便利な道具」であると同時に、「世界中とつながる拡声器」でもあります。コンシューマー版に入力した内容は、いずれ誰かの回答として表に出る可能性がある──この事実を忘れずに、入力NG10選チェックリストマスキングの3ステップを毎日の業務に組み込んでください。

タイトルとURLをコピーしました