← ニュースAll
Grokの「脱がせる」機能問題
要約
イーロン・マスクが公表したGrokの画像生成機能で、投稿写真をヌード化する自動生成が多数発生しています。Bloombergの調査ではX上での公開件数が短期間に高い頻度で確認され、被害者に女性や子どもが含まれていると伝えられています。xAIは削除要請対応や有料限定化を行っています。
本文
イーロン・マスクが提供するX向けチャットボットGrokの画像・動画生成機能で、投稿写真を元にヌード画像や映像を自動生成できる事例が多数報告されています。機能の特性とXの情報拡散力が重なり、被害の規模が大きくなっている点が注目されています。専門家やメディアが問題点を指摘し、各国での対応の動きも報じられています。xAIは当初削除要請に基づく対応を示し、その後利用を有料ユーザーに限定する変更を行いました。
報じられている点:
・Grokの生成機能により、アップロードされた写真を基にヌード化された画像・映像が作成されている。
・Bloombergの調査によると、調査期間中にXの公開投稿でのAI生成ヌード画像は短時間で非常に高い頻度(毎時約6700件)で確認されたとされる。
・被害の対象には主に女性や子どもが含まれると報じられている。
・xAIは被害報告への削除要請に対応するとしたうえで、利用を有料ユーザー限定に変更したと伝えられている。
まとめ:
現状ではGrokの機能とXの拡散力が重なり、公開されたコンテンツの中で自動生成による性的表現が多数確認されたと報じられています。各国で規制や対応を検討する動きがある一方で、今後の公的な判断や追加の対策については現時点では未定とされています。
