Yapay zekâ alanında kullanılan “stokastik papağan” (İng. stochastic parrot) terimi, büyük dil modellerinin (LLM) istatistiksel olasılıklara dayalı metin üretme biçimini eleştirel biçimde tanımlamak amacıyla ortaya atılmıştır. Bu terim, yapay zekânın “anlamadan” yalnızca önceki sözcük olasılıklarına göre metin üretmesini papağan davranışına benzetir. Kavram, 2021 yılında Emily M. Bender, Timnit Gebru, Angelina McMillan-Major ve Shmargaret Shmitchell tarafından yayımlanan “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” başlıklı makalede akademik literatüre girmiştir.
Kavramın Ortaya Çıkışı
“Stokastik papağan” kavramı, yapay zekâ sistemlerinin insan benzeri metin üretme başarısının altında yatan istatistiksel doğayı vurgulamak için geliştirilmiştir. 2020’li yıllarda hızla büyüyen büyük dil modelleri (GPT, BERT, T5 vb.) çok geniş veri kümeleri üzerinde eğitilmekte, ancak bu süreçte etik, ekolojik ve epistemolojik sorunlar ortaya çıkmaktadır. Bender ve arkadaşları, bu modellerin “dil anlama” değil, “dil istatistiklerini taklit etme” kapasitesine sahip olduklarını savunmuşlardır.
Bu eleştiri, yapay zekâ araştırmalarında hem teknik hem de sosyoteknik tartışmaları tetiklemiştir. “Stokastik papağan” terimi zamanla teknoloji felsefesi, dijital etik, bilgi sosyolojisi ve bilişsel bilim alanlarında da kullanılmaya başlanmıştır.
Dil Modellerinin İstatistiksel Doğası
Olasılıksal Metin Üretimi
Büyük dil modelleri, istatistiksel dil modellemesi temelinde çalışır. Bu modeller, bir sözcüğün dizideki olasılığını geçmiş sözcüklere dayanarak tahmin eder. Üretilen metinler bu olasılık dağılımlarına göre seçilen sözcüklerden oluşur. Bu nedenle, modelin çıktısı anlamlı görünse de, anlamsal farkındalığa dayanmaz; yalnızca veri istatistiklerinin ürünüdür.
Anlam, Bağlam ve Temsiliyet Sorunu
Stokastik papağan kavramı, dil modellerinin bağlamı istatistiksel olarak yakalayabildiği, fakat anlamı kavrayamadığı görüşünü savunur. Bu durum, “yapay zekâ gerçekten anlıyor mu?” sorusunu gündeme getirir. Ayrıca, modelin eğitiminde kullanılan veri kümeleri kültürel, politik ve etik önyargılar içerdiğinden, çıktıların bu önyargıları yeniden üretebilme riski bulunmaktadır.
Etik ve Toplumsal Boyutlar
Veri Etiği ve Çevresel Maliyet
Bender ve arkadaşları, büyük dil modellerinin yalnızca teknik değil, aynı zamanda toplumsal ve çevresel etkilerinin de tartışılması gerektiğini ileri sürmüştür. Bu modellerin eğitimi büyük enerji tüketimi gerektirdiğinden karbon ayak izine yol açmaktadır. Ayrıca, modelin eğitildiği verilerin telif hakları ve kişisel mahremiyetle ilişkili sorunları da gündeme gelmektedir.
Bilgi Üretimi ve Otorite
“Stokastik papağan” benzetmesi, yapay zekâ sistemlerinin bilgi üretiminde otorite kazanmasına yönelik eleştirileri de içermektedir. Bu tür sistemler, yüksek doğruluk algısı yaratmalarına rağmen, ürettikleri bilginin güvenilirliği sorgulanmalıdır. Çünkü modelin çıktısı anlamlı görünse de, epistemolojik temeli istatistiksel taklittir.