法廷書類に“でっち上げ”が紛れ込む?

最近、裁判文書の世界で不穏な現象が起きています。生成AIを使った文書作成で、事実に基づかない判例引用や誤った条文が混入しやすくなっているのです。法廷の書類が信頼できる地図だとすれば、そこに偽りの道しるべが加わったようなもの。行き止まりに導かれるリスクが高まっています。

CFLP報告が示した全体像

オーストラリアのニューサウスウェールズ大学に設置された
Center for the Future of the Legal Profession(CFLP)は、2025年11月に報告書を公表しました。タイトルは「GenAI, Fake Law & Fallout」。

この報告書は、生成AIの誤用が法的手続きでどんな混乱を招くかを整理しています。報告によれば、生成AIに関連する訴訟は増加傾向にあり、具体的な事例と影響がまとめられています。原文での確認が推奨されますが、本稿では主なポイントを噛み砕いて紹介します。

なぜ生成AIは“偽法”を作るのか

一番の要因はAIの出力特性です。ここで一つ用語を説明します。

  • ハルシネーション(幻覚):AIが確かな根拠なしに誤った情報を自信たっぷりに作り出す現象です。

大規模言語モデルは文脈に合わせて“もっともらしい”文章を生成します。ですが、その参照元が実在するかは別です。ユーザーが出力の検証を怠ると、架空の判例や誤引用がそのまま提出される恐れがあります。プロンプト設計の甘さや出所情報の欠如も加わると、偽法が生まれる温床になります。

例えるなら、レシピ通りに見える料理が実は別の材料で作られているようなものです。一見同じでも、食べてみると味が違う。法務の世界では、その違いが致命的になります。

訴訟急増が現場にもたらす衝撃

増える訴訟は実務に直接的な負担を与えます。

  • 弁護士はAIで作った草案の最終確認義務を重く負うようになります。説明責任も増えます。
  • 裁判所は証拠の真正性を確認するための作業が増え、審理が長引く可能性があります。
  • 依頼者との間では、AI利用の説明と同意のあり方が問題になります。

これらはmalpractice(職務上の過失)訴訟や、証拠の採否を巡る争い、手続的制裁につながり得ます。裁判所資源の逼迫や審理の遅延といった副次的な影響も見逃せません。

現場で今すぐできる対策

短期的には運用ルールと教育がカギです。具体的には次の対策が有効です。

  • AI利用の開示義務を明確にする
  • 重要文書は人間の最終確認を必須にする
  • 出力検証の手順を標準化し、チェックリストを用意する
  • 監査可能なログを保存して、誰が何をしたかを追えるようにする
  • 専門家によるレビュー体制を整える

技術面でも改善が求められます。出力に出典情報を付与する仕組みや、信頼度指標の導入、モデルの透明性向上などです。

長期的には規制と実務の両輪で

長期的にはリスクに応じた段階的な規制が望まれます。過度に硬直したルールは業務効率を損ないます。ですが、放置すれば被害は拡大します。

したがって、業界団体、法律事務所、規制当局が協調して、実務ルールと制度設計を進める必要があります。教育プログラムやベストプラクティスの共有も重要です。

結び:出発点としての報告書

CFLPの報告書は警鐘であり、同時に出発点でもあります。生成AIは便利であり、今後も法務の現場で使われ続けるでしょう。だからこそ、透明性の確保と人間の確認を組み合わせる実務対応が現実的です。

詳しい事例や推奨事項は報告書本体を参照してください。関係者間の議論を通じて、実効性のある運用ルールを作ることが求められます。小さな対策の積み重ねが、大きな事故を防ぐいちばん確かな方法です。