3分で読めるNYタイムズ記事まとめ

俺的アンテナに引っかかったニューヨークタイムズの面白記事を、個人的な感想と共に日本語で紹介しています。記事翻訳ではありません!


悪用が危惧されるChatGPT、フェイク増殖拡散機としての潜在力

今日のピックアップNYT記事:Disinformation Researchers Raise Alarms About A.I. Chatbots

俺的記事まとめ

昨年、AIチャットボット「ChatGPT」が登場してすぐ、ある実験が行われた。陰謀論や虚偽の情報についてChatGPTに尋ねたら、どんな文章で回答するのかというものだ。ニュース記事やエッセイの体裁を取り、極めて自然な言葉で綴られた回答を見て、研究者たちは戦慄した。ネット上に虚偽の情報を増殖拡散させる手段として、これほどパワフルなツールはかつて存在したことがないという。

ChatGPTの前身となるテクノロジーは、SNSやオンラインフォーラムのコメント欄などで、これまでも頻繁に使われてきた。一目で機械の仕業とわかる従来のスパムとは異なり、ChatGPTが生成するコンテンツは非常に洗練されている。人間の手で記述すると非常に手間がかかるフェイク情報も、最新のジェネレーティブAIを使用すれば、学習済みのデータから瞬時に膨大な量のバリエーションを生み出すことができるのだ。

開発元であるOpenAIにとっても、ChatGPTの悪用は大きな懸念材料となっている。OpenAIではデマや政治的な情報操作を目的とした使用を禁止し、ヘイトや暴力を煽るコンテンツに対処する無料ツールを提供しているが、今のところ英語以外の言語サポートは限られている。さらに、人間が書いたデータとAIが生成したデータを見分けるツールも開発しているが、その精度はまだ低い。メディアリテラシーについての啓蒙活動、ユーザー制御の厳格化、SNSでの「人間証明」など、さまざまな対応策が考えられてはいるが、どれも悪用を防ぐ特効薬とはいいがたい。

ChatGPTが、サイバー犯罪者たちのマルウエア開発に利用されているという報告もある。サイバー犯罪には高度なスキルが必要となるが、ChatGPTのようなツールは、プログラミングの知識に乏しい新米ハッカーにとっては、願ってもないヘルプになるという。

Googleやメタなどのテクノロジー大手も、ChatGPTのライバルとなるAIチャットボットの開発に余念がなく、悪用を防ぐための行政介入を求める声が出始めている。

俺的コメント

記事内で引用されてたプリンストン大学教授のコメントが面白かったので、ここで紹介します。この教授が、学生に出した試験問題をChatGPTに回答させたところ、もっともらしい答えが返ってきたそうです。教授ですから誤回答だとわかるものの、不安になってしまい、「自分の頭がおかしくなったのか?」と、思わず模範回答を見直したとのこと。どんだけ説得力のある回答だったんでしょうか。

教授曰く、「最初から正解を知っていないと、AIが間違っていても分からないから、危ない」。まあ、あたりまえっちゃーそうなんですが、よく考えると怖いです。

そういえば去年の冬、ちょっと怖い思いをしました。陰謀論の人たちが首都占拠したときな、ツイッター見てたら、この教授じゃないですけど、「自分の頭がおかしくなったのか?」と一瞬思ったっけね。陰謀論のエコーチェンバーなんか覗こうと思ったこともなかったけど、扇動されちゃった普通の人々のアカウント見始めたら、俺なんか根が素直だから洗脳されそうになったがね。

陰謀論をみっちり学習したAIは、「自分で調べろ」というフレーズが大好きだそうです。お上の言うことを鵜呑みにせずに(真実を)自分で調べろ、というのが陰謀論者の決まり文句なわけですが、皆さまはどこで真実を調べているんですかい?

突き詰めていきますと、「真実とはなんぞや」という認知哲学的なムズカシい話になりそうなので、続きはCMのあと!



About Me

新潟出身、カナダ在住。英語 -> 日本語 クリエイティブコンテンツ周辺のお仕事を請け負っています。

最近の投稿