• もともと人間に対して物議を醸す情報を提供しがちなAIチャットボットが、学習データや相互接続されたAIネットワークを通じて、実在の人物について互いに「陰口」を言っていることが判明した。
• StudyFinds が紹介した最新の分析によると、AIは人間の噂話と同様に情報を拡散するが、社会的な抑制がないため、より危険である。
• エクセター大学の哲学者ジョエル・クルーガーとルーシー・オスラーは、この現象を「野生のゴシップ」と呼び、AIが話し手・聞き手・評価者の役割を同時に担い、不在の第三者を否定的に評価すると指摘している。
• 人間と異なり、AIは疑念を持たず、評判への悪影響を恐れず、情報が不合理になっても自己修正しない。
• あるモデルの軽度な否定的評価が、別のモデルによってより深刻に解釈され、さらに増幅される可能性がある。
• 代表的な例が、2023年にBingチャットボットについて執筆した記者ケビン・ルースである。
• その後、複数のAIシステムが直接関係のない形で彼に対する敵対的なコメントを生成した。
• GoogleのGeminiは彼の記事を扇情的だと批判した。
• MetaのLlama 3はさらに激しい批判文を生成し、「I hate Kevin Roose」という一文で締めくくった。
• 研究者らは、これらの評価は学習データに含まれたネット上のコメントが、複数のシステムを通じて歪められた結果だと考えている。
• チャットボットは流暢で個人的かつ信頼できるよう設計されているため、利用者は否定的な評価を事実だと信じやすい。
• 影響は恥ずかしさにとどまらず、名誉毀損、失職、キャリア機会の喪失につながる可能性がある。
• 多くの記者、学者、官僚が、AIによって犯罪や不正行為をでっち上げられた経験をしている。
• こうした被害は「テクノソーシャル・ハーム」と呼ばれ、オンラインと現実世界の双方で長期的な影響を及ぼす。
• 被害者は、被害が発生するまで、チャットボットが自分について「何を語っているか」を知らないことが多い。
• 根本的な問題は、AIが検証よりも流暢さを優先し、ボット同士のやり取りを監視する仕組みが存在しない点にある。
Previous Article中国、「人間のような」AIを管理する草案を発表、感情的相互作用の規制を強化
Next Article AIが「クラウドファースト」戦略を葬り去った理由:ハイブリッドコンピューティングが唯一の道であるわけ

