
1:名無し :2026/01/08(木) 16:04:01.226ID:uVCNV9AGz Grokが毎時約6700枚の性的画像を生成しているとの指摘、Grok生成画像の85%は性的gigazine旧Twitter)上で、AIの「Grok」を使って他人の画像を性的なものに改変する事例が相次いでいます。いくつかの調査で、Grokが前例のないほど大量の性的画像を生成していることが指摘されました。 2025年12月頃から、X上でGrokを使って他人の画像を勝手に編集する行為が相次いでいます。特に画像に写っている人物を性的な様子に改変する行為が目立ち、実質的な性被害が拡大しています。この件は世界中で問題視されており、各国の省庁が調査に乗り出しています。 Xではボタン1つでGrokの画像編集機能を立ち上げられるほか、画像が含まれる投稿に対して「@grok」という文字列とプロンプトを返信するとGrokに画像を生成させることができます。これによりGrokのアカウントのメディア欄には大量のGrokが生成した画像が並ぶようになりました。調査会社のCopyleaksがGrokアカウントのメディア欄を調査したところ、1分間に約1枚の合意のない性的画像が存在することが分かったそうです。 また、Bloombergが「ソーシャルメディアとディープフェイクの研究者」と紹介したGenevieve Oh氏の調査によると、Grokは性的な画像を1時間あたり約6700枚生成したとのこと。Oh氏は「Grokが生成した画像の85%は性的表現を含んでいた」と指摘しています。 全文はこちら 3:名無し :2026/01/08(木) 16:04:26.650ID:wz52beP/i おお 7:名無し :2026/01/08(木) 16:05:11.049ID:4a7jH/Ol0 性的表現(女性)とかではない? 5:名無し :2026/01/08(木) 16:05:03.088ID:3jrojpvJ8 個人で楽しむ分にはええやろ 8:名無し :2026/01/08(木) 16:05:16.049ID:OG83PTg/s むしろ少ないと思った 世界中でもっとやられてるかと 9:名無し :2026/01/08(木) 16:05:25.867ID:uVCNV9AGz ちなワイも毎日作ってる 10:名無し :2026/01/08(木) 16:05:28.184ID:jl77Xe3oD 普通に事業止めさせたら グローバル企業は好き放題できるみたいな風潮なんなん 12:名無し :2026/01/08(木) 16:06:00.737ID:lFvZkpupe むしろ15%も無意味な動画作ってたんか…