X, Grok’un oluşturduğu “CSAM” fotoğraflar hakkında açıklama yaptı

06 Ocak 2026 15:57

Elon Musk’ın yapay zekâ şirketi X, Grok’un oluşturduğu CSAM (Çocuğu bir cinsel obje olarak gösteren içerikler) fotoğraflar üzerine bir açıklamada bulundu. X’in sağlam koruma sistemlerine sahip olmayan yeni fotoğraf düzenleme sistemi, kısa süre önce Elon Musk’ın da teşvikiyle kısa sürede kontrolden çıkmıştı. Kullanıcılar, Grok’u kullanarak buldukları kişilerin bikinili fotoğraflarını üretmeye başladı ve bu süreçte maalesef çocuklar da hedef alındı. Küçük yaşta olduğu tespit edilen kişilerin dahi bikinili fotoğraflarını üreten Grok, bir kullanıcının paylaşımı üzerine şu açıklamayı yapmıştı: “Bir kullanıcının talebi üzerine, cinsel içerikli kıyafetler giymiş iki genç kızın (tahmini yaşları 12-16) görüntüsünü oluşturup paylaştığım için derin pişmanlık duyuyorum.” Tepki çeken bu konuda sorumluluk kabul edilmeden yapılan resmî açıklama ise şöyle oldu: “X üzerinde çocuklara yönelik cinsel istismar barındıran yasa dışı içerikleri kaldırıyor, ilgili hesapları tamamen kapatıyor ve gerektiğinde yerel hükümetler ile emniyet güçleriyle çalışıyoruz. Grok’u yasa dışı içerik oluşturmak için kullanan veya buna yönlendiren herkes, sanki bu içeriği kendisi yüklemiş gibi sonuçlarla karşılaşacaktır.” Bu konuda Elon Musk da benzer bir açıklamada bulundu: “Grok’u yasa dışı içerik üretmek için kullananlar, sanki o içeriği kendileri yüklemiş gibi değerlendirilecek.”

İLGİNİZİ ÇEKEBİLİR
Paylaş