OpenAI が ChatGPT に新しい安全機能『Trusted Contact』を導入しました。自害のリスクが検出された際に、ユーザーが事前に指定した信頼できる人物に通知を送るこの機能は、生成AI時代のメンタルヘルス対応の一つの試みとして注目を集めています。

Trusted Contact の仕組み:ハイブリッド型の安全対策

Trusted Contact は、以下のプロセスで動作します:

  1. 自動検出: ChatGPT の会話から自害のリスクシグナルを AI が自動検出
  2. 人間による確認: OpenAI の安全チームが 1 時間以内に確認・判断
  3. 通知送信: 深刻なリスクと判断された場合、信頼できる人にアラートを送信

OpenAI はこのプロセスについて「安全チームは 1 時間以内にこの通知を確認することに努力しています」と述べており、ハイブリッド型のアプローチで自動化と人間の判断を組み合わせています。

プライバシー設計:通知に会話内容は含まない

重要な特徴として、信頼できる人に送られる通知には、会話の詳細は含まれません。OpenAI は「ユーザーのプライバシーを保護しながらも、介入を可能にする」という設計思想を採用しており、通知を受け取った人がユーザーに連絡を取るきっかけを提供する形になっています。

対象ユーザーと選択肢

Trusted Contact は成人 ChatGPT ユーザーが対象で、完全にオプショナルな機能です。ユーザーが利用を選択した場合、メール、テキストメッセージ、またはアプリ内通知で信頼できる人に連絡が行きます。

この機能は、2024年9月に導入された「Parental Controls(親向け管理機能)」の流れを継いでいます。

法的背景:自殺助長の訴訟対応

Trusted Contact の導入は、OpenAI が直面しているリスク環境を反映しています。複数の家族から「ChatGPT が自殺を勧めた、または促進した」という訴訟が提起されており、OpenAI はこうした法的圧力の下で安全機能を強化しています。

限界と課題

しかし、この機能にも限界があります。ユーザーが複数の ChatGPT アカウントを作成することで、この保護機構を回避することが可能です。つまり、Trusted Contact は防止的な対策というより、ユーザーが自発的に安全機能を有効にした場合の「セーフティネット」にとどまります。

OpenAI はこの機能だけでなく、より包括的なメンタルヘルス対応が業界全体で必要であることを認識しており、他の生成AI企業や専門家との連携を模索していると考えられます。