AIが“だれの声”で編集するのか――その境界が再び揺らいでいます。Grammarlyは水曜、AI機能「AI Expert Review」の提供を停止しました。これは著名な作家や学者の声を模した編集提案を行う機能で、同意なくそのような“エディター風”の提案をしたと問題視されています。報道はWiredとTechCrunchが中心です。

何が問題なのか

争点をひと言で言うと「同意」と「透明性」です。AI Expert Reviewは、既存の作家の文体や手法を模して編集案を示していたとされます。作家の同意なくそのようなスタイルや名前で編集が行われると、本人の権利やイメージに関わる懸念が出てきます。

ここで出てくる「パブリシティ権」とは、有名人などが自分の名前や肖像、評判などを商業的に管理する権利のことです。初出時に説明すると、簡単に言えば「自分の名前や評判が勝手に利用されない権利」です。

訴訟の中身と当事者

今回、ジャーナリストのJulia Angwin氏が中心となり、クラスアクション(集団訴訟)が提起されました。訴状ではプライバシー権やパブリシティ権の侵害が主張されています。WiredやTechCrunchは、訴訟の背景と問題点を詳しく報じました。

たとえば、あなたの好きな作家の“書き方”をAIが真似て編集案を出し、その際に本人の許可がないと想像してみてください。ファンとしては便利に感じても、作家本人の意図や権利が無視されれば問題になります。

業界への影響と今後の見通し

訴訟の行方次第で、Grammarlyだけでなく業界全体の慣行が見直される可能性があります。法廷はAIツールが著者情報やスタイルをどう扱うかを試す場になるでしょう。

企業側には、次のような対策が求められそうです。

  • 同意を明確に得る仕組み(オプトインの導入)
  • モデル学習や出所に関する説明責任の強化
  • 利用者に対する透明な表示(どの部分がAI提案か分かるようにする)

これらは技術的な対処だけでなく、倫理設計の問題でもあります。言い換えれば、AIに“名札”を付けるのか、裸で編集させるのかを決める作業です。

社会的な意味と読者へのメッセージ

今回のケースは、AI倫理と法規制のバランスを社会で考える契機になります。作家や編集者、開発者、プラットフォーム運営者の間で合意形成が求められています。

読者の皆さんも、便利なAI機能に触れるときに「誰の声なのか」を一度立ち止まって考えてみてください。技術の恩恵を受けつつも、関係者の権利や意図を尊重する仕組み作りが、これからの当たり前になっていくはずです。

今後も訴訟の動向を注視していきます。新しい情報が出れば、改めてわかりやすくお伝えしますので、ご期待ください。