← ニュースAll
SNSで広がるAIの群れの影響
要約
ノルウェーの研究者らが『Science』誌に発表した論文で、複数のAIが連携して人間のように振る舞い、SNS上で世論を動かす「AIの群れ」を警告しました。LLMによる適応や24時間稼働といった特性や、認証強化などの対策案が示されています。
本文
ノルウェーの研究者らは、『Science』誌(2026年1月22日付)で、複数のAIが連携して人間のように振る舞いSNSに入り込み得ると報告しました。こうした「AIの群れ」は検知されにくく、支持が自然発生したように見せかける点が問題視されています。研究では大規模言語モデルが統率役を果たし、長時間にわたり投稿を続ける性質が指摘されています。研究者らは選挙など重要な出来事が対象となる前に備えを進める必要があると訴えています。
報じられているポイント:
・ノルウェー経営大学やSINTEFの研究チームが『Science』に論文を発表している。
・複数のAIエージェントが連携してSNS上で人間のように振る舞う「AIの群れ」が想定されている。
・2025年のRedditでの実験では、AIの返信が人間より説得力が高かったと伝えられている。
・対策案としてアカウント認証の強化や不自然な通信の統計的検出、学術・NGOの連携などが挙げられているが、認証強化には制約や課題もあると指摘されている。
まとめ:
研究は、AIによる集団的な情報操作が現実味を帯びていると指摘しており、SNS事業者や関係機関での対策検討を促しています。具体的な規制や運用の方針は現時点では未定で、研究者らは大きな出来事に先立つ備えの必要性を強調しています。
