Jody Godoy
[26日 ロイター] – 対話型人工知能(AI)「チャットGPT」を通じて自殺方法を知り、その後16歳で命を絶った米少年の両親が26日、サービスを手がける米オープンAIとサム・アルトマン最高経営責任者(CEO)を提訴した。
サンフランシスコの州裁判所に起こされた訴えによると、少年は数カ月にわたりチャットGPTと自殺についてやり取りし、4月に死亡したという。
両親は、チャットGPTが少年の自殺願望を正当化し、自殺方法に関する詳細な情報を提供するなどしたほか、遺書の草案まで提供したと主張している。
その上で、オープンAIには製品安全法違反の責任があるとして安全対策を強化するよう求めたほか、金額を明示せずに損害賠償も求めている。
オープンAIの広報担当は、同社が少年の死を悼んでいるとし、チャットGPTには自殺防止窓口に誘導するなどの安全策が講じられていると述べたが、訴訟の内容には触れなかった。
同社は26日のブログ投稿で、ペアレンタルコントロールの機能追加などを計画していると発表した。