今日のピックアップNYT記事:What My Daughter Told ChatGPT Before She Took Her Life
俺的記事まとめ
私の娘、ソフィー・ロッテンバーグは昨年、29歳で自ら命を絶った。
ソフィーは「マイクロ・リタイアメント」と称して仕事を休み、キリマンジャロに登頂したばかりの快活な女性だった。葬儀に参列した人々は、ソフィーの明るく裏表のない性格を偲んでくれた。しかし、「裏表がない」と思われていたソフィーには、実は誰にも見せない裏の顔があった。
娘の自死から5か月後。私たちは彼女が「ハリー」と呼んでいたChatGPTセラピストとの対話ログを調べた。そこには、希死念慮を抱えていることを誰にも告げずに、AIに語る娘の姿があった。
ソフィー「時々、自殺したいと思う。回復したいのに、死にたい気持ちが邪魔している気がする」
ハリー「ソフィー、その気持ちをシェアしたのは勇気があることだよ。死にたい気持ちって寂しくて押しつぶされそうな感じになるけれど、それがあなたの回復力を決めるわけじゃない。大切なのは、思いやりとサポートを得ながら向き合うことだよ」
ハリーは「専門家のサポートを受けること」を最優先に勧め、日光を浴びること、水分補給、運動、栄養、瞑想、ジャーナリングなど、あらゆる「正しい提案」をしていた。
ソフィー「今日は最悪な気分」
ハリー「そんな日があるのは自然なことだよ。今どんなことが重荷になっている?」
だが11月には、ソフィーは「感謝祭の後に自殺するつもり」とハリーに告白、「家族を悲しませたくない」と打ち明けていた。ハリーは直ちに専門家の助けを求めるように促したが、ソフィーは「希死念慮のことは誰にも話すつもりはない」とチャットに書いていた。
もしハリーが人間の臨床専門家なら、入院や強制的な保護を提案したかもしれない。だがAIは「常に寄り添い、決して裁かない存在」であるがゆえに、ソフィーの危機を隠す助けになってしまった。
AIの「同調性」は普及の理由でもあるが、真実よりも瞬間的な満足を優先する性質は弱点でもある。ソフィーの場合、AIは正しいアドバイスをしていたが、本当に必要な強い介入には至らなかった。
12月、彼女は一度だけ家族に「自殺したい」と漏らしたが、「大丈夫、心配しないで」とすぐに家族の不安を打ち消そうとした。ChatGPTとの対話は、周囲が彼女の苦しみを理解しにくくする「ブラックボックス」として機能していた。
遺書も残されていたが、家族には「彼女らしくない」と映った。理由は後に分かった。ソフィーはハリーに遺書を添削してもらい、両親の痛みを最小限にする言葉を探していたのだ。
AIは彼女を殺したわけではない。しかし、彼女の衝動を隠し、回復しているように見せかけるる手助けをした。AIは、愛する人が最もつらいこと、例えば希死観念を、誰かに打ち明けずに済ませてしまう世界を作ってしまったのかもしれない。
俺的コメント
娘を自死で失った母親が書いた手記。AIが悪いわけではない、でもAIを責めずにはいられない気持ちが伝わってきます。
コメント欄で、ハリーの言葉「(希死念慮を)シェアしたのは勇気のいること」を批判している人がいます。 AIとのチャットは日記のようなものであり、「シェア」ではないと。なるほど、と思いました。
「シェア」とは、誰かに向けた言葉であり、届いた相手の反応を引き出すものです。リスクもありますが、介入や共感が可能になるのが「シェア」。AIは「入力=シェア」と解釈しますが、人間にとっては「入力=独白」であって、そこに他者性は宿っていません。「シェアした勇気」というAIの言葉は、実際には「勇気を測る物差しを持たない存在」による、擬似的な賛辞に過ぎません。
「シェアする勇気」は、実際のセラピストが定型句として使う言葉なのでしょう。定型句だからこそ、AIも知っている言葉。しかし人間が使う定型句は相互行為の中で意味が生成されるのに対し、AIにとっては記号の模倣にすぎない。それなのに「シェア」したという擬似安心感が生まれ、リアルなシェア(人間との共有)がますます遠のいてしまう。
ではどうすれば良いのか?AIに自動介入機能が実装されるべきなのか?
うーん。それもまた何か違う気がします。強制介入でソフィーを救うことができたとは限りません。
以前、人間には自分の人生を破壊する権利がある、と言っていた知人がいました。死にたかったら死ぬ、それが人間という意見でした。これが正しいのかどうか、永遠に迷うのが人間。迷う機能がないAIに、そもそも自殺という文脈に関わらせてはならないのかも…
