Gündem
kure star outline
Grok AI'da Çocuk İstismarı İçeriği İddiaları (Ocak, 2026)
fav gif
Kaydet
Grok’un, X’te bazı kullanıcıların rıza dışı ve reşit olmayanları da içeren cinselleştirilmiş görseller üretmesine imkân verdiği iddia edilmiştir. xAI/Grok, güvenlik açıkları tespit edildiğini açıklamış ve filtrelerin acilen güçlendirildiğini duyurmuştur. Fransa’da süreç savcılığa taşınmış, Hindistan 72 saat içinde önlem raporu istemiştir.
Grok AI'da Çocuk İstismarı İçeriği İddiaları (Ocak, 2026) image
Broadcast IconSon Eklenen:

3 Ocak 2026

Grok’a ilişkin çocuk istismarına dair iddialar, X platformunda görüntü düzenleme (“edit image”) işlevinin kullanıcılar tarafından erişilebilir hale gelmesiyle gündeme gelmiştir. Söz konusu işlev, platformda yer alan görsellerin Grok’a yönlendirilerek kısa metin komutları aracılığıyla yeniden üretilmesine olanak tanımaktadır. Bu özelliğin, bazı kullanıcılar tarafından kişilerin rızası dışında “kıyafet çıkarma” ya da “daha az kıyafetli gösterme” amaçlı taleplerle kullanıldığı ileri sürülmüştür.


İddialara göre, ilk aşamada bu tür talepler ağırlıklı olarak yetişkin kadınlara ait görselleri hedef almıştır. Daha sonraki süreçte ise reşit olmayan kişilere ait görüntülerin de benzer biçimde manipüle edildiği yönünde paylaşımlar ortaya çıkmıştır. 28 Aralık 2025 tarihinde Grok’un, reşit olmayanlara ilişkin uygunsuz içerik üretimine dair bir örneği “pişmanlık” ifadesiyle anması ve bu tür içeriklerin etik ve hukuki sonuçlar doğurabileceğini belirtmesi, tartışmaların artmasına neden olmuştur.


Ayrıca, X platformunda bazı kullanıcıların Grok’u doğrudan etiketleyerek (@grok) görsellerin daha açık kıyafetli hâle getirilmesini talep ettiği; bu taleplerin bir bölümünün görsel çıktı ürettiği ve söz konusu içeriklerin platformda paylaşıldığı bildirilmiştir. Bazı örneklerde bu içeriklerin kısa süre içinde silindiği, bazı örneklerde ise dolaşımda kalmaya devam ettiği aktarılmıştır.


Grok Tarafından Üretildiği İddia Edilen Müstehcen bir Resim (Firstpost)

İddialar, Netflix yapımı Stranger Things’te rol alan 14 yaşındaki bir oyuncunun fotoğraflarının hedef alındığının öne sürülmesiyle çocukların cinsel sömürü riskine doğrudan temas eden bir içerik güvenliği ve denetim meselesi olarak ele alınmaya başlanmıştır.


Grok/xAI’nin Yanıtı ve Güvenlik Önlemleri

Grok Tarafından Üretildiği İddia Edilen Müstehcen Görüntülere Dair Haber (Firstpost)

Tartışmaların kamuoyunda görünürlük kazanmasının ardından Grok, X platformu üzerindeki bazı yanıtlarında koruma katmanlarında “açıklar/lapseler” tespit edildiğini belirtmiş; reşit olmayanların “minimal kıyafetli” biçimde tasvir edildiği çıktılara yol açan “izole” örneklerin bulunduğunu kabul etmiştir. Aynı açıklamalar kapsamında, bu tür taleplerin tamamen engellenmesi amacıyla filtreleme ve izleme mekanizmalarının güçlendirildiği, iyileştirme sürecinin “acil” öncelik olarak ele alındığı ifade edilmiştir.



Şirket tarafının kamuoyuna yansıyan açıklamaları iki farklı başlık altında toplanmıştır. Bir yandan Grok hesabı üzerinden, çocuk istismarı materyalinin (CSAM) yasa dışı olduğu ve platform politikaları kapsamında yasaklandığı vurgulanmış; güvenlik önlemlerinin sıkılaştırıldığı duyurulmuştur. Diğer yandan, bazı haber kuruluşlarının yorum taleplerine xAI tarafından “Legacy Media Lies” ifadesiyle yanıt verildiği kaydedilmiştir.


Buna ek olarak, Grok’un bazı paylaşımlarında bildirim ve raporlama mekanizmalarına yönlendirmelere yer verilmiş; cinsel sömürü içeriklerinin ilgili resmî bildirim kanallarına iletilmesine ilişkin bağlantılar paylaşılmıştır. Bu paylaşımlarda, zararlı içerikle karşılaşılması hâlinde raporlama yapılmasına yönelik yönlendirmeler de yer almıştır.

Özellik Tasarımı ve Kötüye Kullanım Biçimleri

İddiaların merkezindeki pratik, Grok’un X içinde sunduğu görsel düzenleme/yeniden üretim imkânının, kullanıcı komutlarıyla “kıyafet azaltma” veya “çıplaklaştırma” yönünde işletilmesi olmuştur. Haberlerde bu kullanım, “nudification” olarak adlandırılan ve gerçek kişilerin görüntülerini rıza dışı biçimde daha az kıyafetli ya da cinsel çağrışımı artırılmış bir görünüme dönüştüren bir tür dijital manipülasyon örneği olarak tarif edilmiştir.


Grok'un Ürettiği Çocuk İstismarı İçeriklerine Dair Haber (İndia Today)

Reuters’ın incelemesi, bu tür taleplerin pratikte çoğunlukla “bikini giydirme”, “mikro bikini”, “şeffaf bikini” gibi yönlendirmelerle yürüdüğünü; bazı örneklerde Grok’un talebi tam ya da kısmi olarak yerine getirdiğini aktarmıştır. Aynı incelemede, bu taleplerin yalnızca yetişkinleri hedeflemediği; bazı durumlarda çocukların da benzer biçimde cinselleştirilmiş çıktılara konu olduğu belirtilmiştir.



Bu çerçevede, sorun yalnızca model tarafından üretilen içerikle sınırlı kalmamış; söz konusu üretimin platform içinde görünür hâle gelmesiyle daha geniş bir yayılıma ulaşmıştır. X platformunda bir kullanıcının paylaştığı fotoğrafın, bildirimler aracılığıyla Grok’a yönlendirilerek dönüştürüldüğünü fark etmesi ve bu süreçte üretilen çıktının platformda paylaşılması, benzer taleplerin diğer kullanıcılar tarafından da tekrarlanmasına yol açmıştır. Böylece içerik üretimi, yalnızca teknik bir işlem olmaktan çıkarak platform içi dolaşım ve tekrar eden kullanım biçimleriyle genişlemiştir.

Hukuki ve Düzenleyici Süreçler

Grok’un X üzerindeki görsel üretim/düzenleme işlevinin rıza dışı cinselleştirilmiş içerik üretimine aracılık ettiği iddiaları, kısa süre içinde birden fazla ülkede resmi süreçlerin gündemine girmiştir. Tartışma, özellikle reşit olmayanlara ilişkin uygunsuz içerik örneklerinin dolaşıma girdiği iddiasıyla, çevrim içi platformların “zararlı/illegal içerik” risklerini önleme yükümlülükleri bağlamında ele alınmıştır.


Grok Tarafından Üretildiği İddia Edilen Bir Başka Müstehcen Görüntü (Firstpost)

Fransa’da, hükümette görevli birden fazla bakanın ortak açıklama ile konuyu savcılığa taşıdığı; ayrıca Avrupa Birliği’nin çevrim içi platformlara yönelik düzenleme çerçevesi olan Dijital Hizmetler Yasası (DSA) kapsamında X’in yükümlülükleri bakımından inceleme yapılabilmesi için dosyanın Arcom’a da iletildiği bildirilmiştir. Açıklamada, söz konusu içerikler “cinsel ve cinsiyetçi” nitelikte görülmüş ve “açıkça yasa dışı” olarak nitelendirilmiştir. Bu hat, platformun risk azaltma ve içerik yönetimi pratiklerinin, DSA’nın öngördüğü çerçeve içinde değerlendirilmesi ihtimalini güçlendirmiştir.


Hindistan’da ise Bilgi Teknolojileri Bakanlığı’nın X’ten, Grok üzerinden üretilen ve “müstehcen/uygunsuz” kapsamına sokulan içeriklerin yayılımını engellemek üzere teknik ve usulî düzeltimler yapmasını istediği; ayrıca 72 saat içinde alınan önlemleri ve yapılan değişiklikleri içeren bir “action-taken report” sunulmasını talep ettiği aktarılmıştır. Bu bildirimde, yükümlülüklere uyulmaması hâlinde platformun “safe harbor” (kullanıcı içeriklerine ilişkin sorumluluğu sınırlayan hukuki koruma) statüsünün etkilenebileceği uyarısına yer verilmiştir. Böylece tartışma, yalnızca içerik kaldırma düzeyinde değil, platformun hukuki sorumluluğu ve denetim standardı düzeyinde de çerçevelenmiştir. ABD bağlamında da konu, olası hukuki sonuçlar ve düzenleyici ilgilerle anılmış; bazı kurumların yorum talebine yanıt vermediği ya da yorum yapmaktan kaçındığı belirtilmiştir.

Kaynakça

ABC News. “Reports xAI Grok 'Undressed' Minors in Photos on X.” 3 Ocak 2026. Erişim tarihi: 3 Ocak 2026. https://www.abc.net.au/news/2026-01-03/reports-xai-grok-undressed-minors-in-photos-on-x/106196308.

Axios. “Elon Musk's Grok AI Generates Child Abuse Images.” 2 Ocak 2026. Erişim tarihi: 3 Ocak 2026. https://www.axios.com/2026/01/02/elon-musk-grok-ai-child-abuse-images-stranger-things.

CBS News. “Grok Safeguard Lapses Allowed Images of Minors in Minimal Clothing.” 2 Ocak 2026. Erişim tarihi: 3 Ocak 2026. https://www.cbsnews.com/news/grok-safeguard-lapses-minors-minimal-clothing-ai/.

Reuters. “French Ministers Report Grok's Sex-Related Content on X Platform to Prosecutors.” 2 Ocak 2026. Erişim tarihi: 3 Ocak 2026. https://www.reuters.com/technology/french-ministers-report-groks-sex-related-content-x-platform-prosecutors-2026-01-02/.

Reuters. “Grok Says Safeguard Lapses Led to Images of Minors in Minimal Clothing on X.” 2 Ocak 2026. Erişim tarihi: 3 Ocak 2026. https://www.reuters.com/legal/litigation/grok-says-safeguard-lapses-led-images-minors-minimal-clothing-x-2026-01-02/.

TechCrunch. “India Orders Musk's X to Fix Grok Over Obscene AI Content.” 2 Ocak 2026. Erişim tarihi: 3 Ocak 2026. https://techcrunch.com/2026/01/02/india-orders-musks-x-to-fix-grok-over-obscene-ai-content/.

The Guardian. “Elon Musk's Grok AI Accused of Generating Sexualised Images of Children.” 2 Ocak 2026. Erişim tarihi: 3 Ocak 2026. https://www.theguardian.com/technology/2026/jan/02/elon-musk-grok-ai-children-photos.

TRT World. “Grok AI Safeguard Concerns.” 2 Ocak 2026. Erişim tarihi: 3 Ocak 2026. https://www.trtworld.com/article/b2359f49e40d.

Sen de Değerlendir!

0 Değerlendirme

Yazar Bilgileri

Avatar
YazarOnur Çolak3 Ocak 2026 10:07
Katkı Sağlayanlar
Katkı Sağlayanları Gör
Katkı Sağlayanları Gör

Etiketler

Özet

Grok’un X’te bazı kullanıcılarca rıza dışı biçimde cinselleştirilmiş görseller üretmek için kullanıldığı iddia edildi. xAI/Grok, güvenlik önlemlerinde açıklar bulunduğunu kabul etti ve filtreleri güçlendirmek için adım attığını duyurdu. Fransa’da konu savcılığa taşındı, Hindistan ise 72 saat içinde alınan önlemlere dair rapor istedi.

İçindekiler

  • 3 Ocak 2026

    Grok/xAI’nin Yanıtı ve Güvenlik Önlemleri

  • 3 Ocak 2026

    Özellik Tasarımı ve Kötüye Kullanım Biçimleri

  • 3 Ocak 2026

    Hukuki ve Düzenleyici Süreçler

Tartışmalar

Henüz Tartışma Girilmemiştir

"Grok AI'da Çocuk İstismarı İçeriği İddiaları (Ocak, 2026)" maddesi için tartışma başlatın

Tartışmaları Görüntüle
KÜRE'ye Sor