Deep Researchの出力レポートを「業務文書として」使う際、最も注意すべきなのが引用の扱いです。引用元URLが実在しても内容が一致しない「幻覚引用」、一次情報を読まずに二次情報のまま使う「引き写し」、AI出力レポートを自分の成果物として提出する「剽窃」──これらは全て、業務信頼を一瞬で失う行為です。本記事では、Deep Researchの引用マナーを実務フロー形式で解説します。
なぜ「引用マナー」が重要か:2025年デロイト事件の教訓
2025年、デロイト・オーストラリアがオーストラリア政府向けに提出した報告書に、AI由来と見られる「存在しない文献引用」が含まれていたことが発覚しました。政府は報告書を受け付けず、デロイトは信頼を失い、国際的な報道の対象となりました。
この事件の本質は、AI出力を業務成果物として扱う際、引用の正確性を検証しなかったことにあります。Deep Researchを使う全てのビジネスパーソンにとって、他人事ではありません。
引用の3つのリスク
リスク1:存在しない文献の捏造
AIはもっともらしい書名・著者名・論文タイトルを創作することがあります。実在しない研究論文、実在しない書籍、実在しないURL──これらが堂々と引用される可能性があります。
リスク2:幻覚引用(リンクと内容の不一致)
引用元URLは実在するが、そのページに実際は引用されている内容が書かれていないケース。Perplexityなど引用透明性を重視するツールでも発生します。
リスク3:一次情報を読まずに二次情報のまま使う
AI出力のレポートは要約された二次情報です。統計数値、法律条文、契約条項のような正確さが求められる情報は、必ず一次情報(原典の論文・公式文書)を開いて確認してください。
Deep Research引用の実務フロー(7ステップ)
- ステップ1:Deep Researchにリサーチを依頼
- ステップ2:出力レポート内の全ての引用URLをリストアップ
- ステップ3:各URLを実際に開いて、引用内容が該当ページに存在するか確認
- ステップ4:重要な数値・日付・名前は、公式文書・原典で二重確認
- ステップ5:存在しない文献や幻覚引用を除去・修正
- ステップ6:最終文書には、確認済みの引用のみを記載
- ステップ7:「AIリサーチツール(◯◯)を利用した」旨を明示
引用マナーの「やってはいけない」5原則
1. 「AIがそう言った」を引用根拠にしない
学術論文・ビジネス報告書・法的文書において、「ChatGPT Deep Researchによると」「Gemini Deep Researchによると」を引用根拠として使うのはNGです。AIは二次情報ツールであり、一次情報の代替にはなりません。
2. 出力レポートを「自分の成果物」として提出しない
Deep Researchの出力を丸ごとコピペして「私のレポート」として提出するのは、学術界でも企業でも剽窃(プラジャリズム)とみなされる可能性があります。自分の分析・考察を必ず加えてください。
3. 引用URLの「リンク切れ」を放置しない
Deep Researchが提示したURLがリンク切れ・削除済み・ペイウォール越しにある場合、「確認できない情報」として扱い、代替ソースを探すか引用を取り下げてください。
4. 論文の「結論だけ」を切り出さない
学術論文には前提条件、対象範囲、限界があります。Deep Researchが抽出した結論だけを引用すると、文脈が失われ、誤解を招きます。必ず論文の要旨・結論セクションを実際に読んでから引用してください。
5. AI利用の開示を怠らない
Deep Researchを使った資料を顧客・上司・関係者に提出する際は、「AIリサーチツール(ChatGPT Deep Research等)で調査した情報を元に作成」と明記するのがビジネスマナーです。責任範囲を明確にできます。
「Deep Researchで調べました」と言う時の責任範囲
AIに調査を任せても、最終的な結論の責任は人間が負うのが業務の原則です。「AIが言っているから」は言い訳になりません。「私がDeep Researchの出力を確認し、追加調査し、結論を判断しました」という姿勢を保ちましょう。
関連記事
まとめ
Deep Researchは強力ですが、引用の扱いを誤ると業務信頼を一瞬で失います。全ての引用URLを実際に開いて確認し、一次情報を読み、AI利用の事実を開示する──この3点を徹底すれば、デロイト事件の二の舞にはなりません。
※本記事は2026年4月時点の公開情報および公知の事例(デロイト・オーストラリア事件等)に基づきます。

