【ChatGPTビジネス活用マナー】無料版vs有料版vsEnterpriseの違いと安全な使い分け

デジタルマナー
🔊この記事を音声で聞く

「打ち合わせの議事録、ChatGPTで要約してから送りますね!」──そう何気なく言ったら、上司から「ちょっと待った、それ無料版?」と止められた経験はありませんか? 野村総合研究所の調査では、すでに国内企業の57.7%が生成AIを導入済み。しかし現場の利用ルールはまだまだ追いついていないのが現状です。

ChatGPTにはFree・Plus・Team・Enterpriseの4プランがあり、それぞれ「データの扱われ方」「セキュリティ認証」「責任の所在」が違います。この違いを知らずに業務利用すると、たった1回のコピペで会社の機密情報が漏洩する……そんな悪夢のシナリオも現実的なリスクです。

ChatGPTの4プラン徹底比較表

項目FreePlusTeamEnterprise
月額料金0円約20ドル/人約25〜30ドル/人個別見積
データ学習利用原則あり原則ありなしなし(契約保証)
SOC 2 Type 2非対象非対象対象対象
暗号化標準標準AES-256AES-256
SAML SSO不可不可不可
監査ログAPI不可不可不可
責任の所在個人個人契約管理者法人

FreeとPlusは「個人が自分の責任で使う」前提のプランTeamとEnterpriseは「法人が組織として使う」前提のプラン。価格差はそのまま「保証されているセキュリティの厚み」の差です。

個人版を業務利用するのが危険な4つの理由

理由1:入力した機密情報が「学習データ」に取り込まれる

2023年3月、サムスン電子ではわずか20日間で3件の重大な情報漏洩が発生し、社内ネットワークからのChatGPT利用を全面禁止する事態に。一度AIモデルの「重み」として学習されてしまった情報は、技術的に完全消去された証明ができません。事後の取り返しがつかないのです。

理由2:個人情報保護法上「第三者提供」に該当する恐れ

2023年6月、個人情報保護委員会(PPC)が公表した注意喚起では、「入力した個人情報がAI事業者側で機械学習に使われる場合、それは第三者提供にあたる可能性が高い」と指摘。第三者提供には原則として本人の事前同意が必要です。

理由3:シャドーAIによる「会社の見えない死角」

会社のIT部門が把握しないまま、社員がそれぞれ個人のChatGPT契約で業務をしている状態を「シャドーAI」と呼びます。DLP監視の範囲外で機密情報がやり取りされ、そもそもインシデントの発生自体に気づけない致命的な状況が生まれます。

理由4:トラブル時の責任を「個人」が背負う

FreeやPlusはあくまで「個人契約」。業務情報を入力したことが原因で漏洩事故が起きた場合、契約上は使った社員個人の責任問題にもなり得ます

ChatGPT Enterpriseで保証される6つのこと

  • 1. 学習データへの不使用が契約で明文化
  • 2. 強固な暗号化(保存時AES-256、通信時TLS 1.2以上)
  • 3. SOC 2 Type 2監査をクリア
  • 4. SAML SSOによるアクセス制御
  • 5. 監査ログAPI(誰がいつ何を入力したか追跡可能)
  • 6. GDPR・HIPAA対応(DPA、BAAの締結が可能)

国内大手企業のAIガイドライン導入事例

JDLA雛形:すべての企業の出発点

日本ディープラーニング協会(JDLA)の「生成AI利用ガイドライン雛形」は、入力フェーズと出力フェーズの2段階で、それぞれの注意点を整理しています。

  • 入力フェーズで禁止:第三者の著作物、登録商標、著名人の顔・氏名、個人情報、自社の機密情報、NDA秘密情報
  • 出力フェーズで注意:ハルシネーション、第三者の権利侵害、AI生成物への著作権非発生、商用利用不可リスク

三菱UFJ(MUFG):説明責任と透明性を最重視

金融機関は厳しいコンプライアンス要件が課されます。MUFGの「MUFG AIポリシー」では、「透明性」と「アカウンタビリティ」を独立した項目として明記。融資の与信判断にAIを使う場合、ブラックボックスでは規制当局の監査に耐えられないからです。

ソフトバンク:AI倫理ポリシーで先端事業を牽引

ソフトバンクは2022年7月の段階で全社的な「ソフトバンクAI倫理ポリシー」を策定。ガン研究会との共同で生成AIを活用した医療業務支援ツールを開発するなど、強固なガバナンスの傘の下で新規事業を牽引しています。

パナソニック コネクト:閉域環境で守る

パナソニック コネクトは、パブリックな生成AIへのアクセスを遮断し、Azure OpenAI Service等を使った社内専用の閉域環境を構築。設計図面・製造ノウハウ・ソースコードといったコアコンピタンスが外部AIの学習に転用されることをシステム的に防いでいます。

デジタル庁:政府18万人が使うガバメントAI「源内」

デジタル庁が推進する「源内(Gennai)」は、2026年度中に約18万人の政府職員が日常的にAIを活用できるよう、政府共通のAI利用環境を構築する巨大プロジェクト。

業務利用ルール作りの基本5項目

  • 項目1:使ってよいAIツールの「具体名」を明記(例:ChatGPT EnterpriseとMicrosoft 365 Copilotのみ)
  • 項目2:入力してよい情報・ダメな情報を分類(公開/内部限定/機密の3段階)
  • 項目3:利用時の手続きを定める(事前承認・ログ保存)
  • 項目4:AI生成物の取扱いルール(外部公開時はAI利用を明記、人間によるファクトチェック必須)
  • 項目5:インシデント発生時の報告ルート(隠蔽が一番のリスク。報告者を責めない雰囲気作り)

会社にAIガイドラインがない場合の対処法

  • 対処法1:機密情報は絶対入力しない(顧客名・社内文書・未発表数字・NDA情報)
  • 対処法2:固有名詞を「ダミー」に置換(会社名は「A社」、人名は「Bさん」、商品名は「製品X」)
  • 対処法3:上司・IT部門に「公式ツール導入」を提案(Team版なら月額3,000円程度で安全)
  • 対処法4:JDLA雛形をベースに部署内ミニ・ガイドラインを作る
  • 対処法5:判断に迷ったら「公開情報レベル」だけにする

まとめ:プランの違いを知ることが、AI時代のビジネスマナー

  • FreeとPlusは原則「学習に使われる」、TeamとEnterpriseは「学習に使われない」が大原則
  • 個人版での業務利用は、個人情報保護法上「第三者提供」になり得る重大なリスク
  • 大手企業はJDLA雛形をベースに、業界特性に合わせた独自ガイドラインを構築
  • 会社にルールがなくても、機密情報は入れない・固有名詞はダミー化で守れる

ChatGPTを業務で使うなら、まずは自分の契約プランを確認。そして自社にガイドラインがあるかをチェック。なければ、今日この記事を上司にシェアするところから始めてみてください。AI時代のビジネスマナーは、「便利さ」と「責任」のバランス感覚から生まれるのです。

タイトルとURLをコピーしました