Hâlâ Telefon Numarası Ezberleyen Var mı?
Toplum ve Teknoloji bültenini yakından takip edenlerin bildiği üzere, “teknoloji bize ne kazandırır, bizden neleri alır?” sorusu, üzerinde sıkça durduğumuz temel meselelerden biri. Bu soruyu genellikle günümüzün yeni teknolojilerine yönelik sorsak da gündelik yaşamın parçası hâline gelmiş, artık sıradanlaşmış teknolojiler de bu sorgulamadan muaf kalmıyor.
2005 yılında New York Times’da yayınlanan “Bir Sayı Düşün… Haydi Düşün” başlıklı yazı kanıksadığımız birçok teknolojinin benzer sınamalarla geldiğini gösteriyor.
Cep telefonu kullanımı hayatımıza sayısız kolaylık getirse de beraberinde başka yetenekleri de sessizce bizden götürüyor. Örneğin artık telefon numaralarını ezberlememiz gerekmiyor. Times makalesinin yazarı Rachel Metz bu duruma dair çeşitli araştırma ve örnekleri bir araya getirerek akıllı telefonlardan sonra pek çoğumuzun vazgeçtiği numara ezberleme alışkanlığını irdeliyor. Telefon numaralarının unutuluşuyla alakalı problemler yaşayan bir kaç örnek üzerinden tezini destekliyor. Bütün bu örneklerin dolaylı olarak vardığı sonuç ise bilişsel yüklerimizi devrettiğimiz düzlemleri kaybettikçe hareket alanımızın daraldığı yönünde.
Sabit telefonlar hayatlarımıza girdiğinde pek çoğumuz ihtiyacımız olan numaraları ezbere biliyorken, bugün böyle bir külfete katlanmamıza gerek yok gibi görünüyor. Bu durum her ne kadar kolaylık olarak görülse de bilişsel hafifleme risklerini (cognitive offloading) de beraberinde taşıyor. Zira numaralardan hareketle neredeyse bütün bilişsel envanterimizin zihnimizin dışında muhafaza edildiğini söylememiz mümkün. İşte tam bu durum, yani zihinsel yük olacak içeriklerin zihnin dışına taşınması literatürde bilişsel hafifleme olarak ifade ediliyor. Elbette bilişsel hafifleme yalnızca telefon numaralarını rehbere kaydetmek ile sınırlı değil. Telefonlarımızdaki not uygulamalarından hatırlatıcılara, yapay zekâ temelli sohbet robotlarından internette bir bilginin muhafaza edilmesi fikrine kadar pek çok gündelik davranışımız bilişsel hafiflemeyi barındırıyor.
Bilişsel hafifleme her ne kadar kavramsal anlamının örtüşmesi noktasında tam anlamıyla paralellik barındırmasa da akıllara tarihî bir örnek olan İmam Gazali’nin ilim yolculuğundan sonra memleketine dönerken karşılaştığı eşkıyaları getirir. Gazali ilim tahsilinin ertesinde memleketine dönerken eşkıyalar tarafından çevrelenip bütün eşyaları imha edilir. Bunun üzerine Gazali yalnızca kitaplarını istediğinde, rivayet odur ki eşkıyalar kitaplara muhtaç bir âlim oluşundan ötürü Gazali ile alay ederler. Bundan sonra Gazali bütün notlarını ezberler ve tedris eder. Artık İmam Gazali’nin bilişsel yükünü hafifleten kitaplara ihtiyacı yoktur. Elbette bu, otantikliği sorgulanabilir bir örnek olarak görülebilir. Ancak bu örneğin içinde yaşadığımız yapay zekâ dünyasına söylediği bir şeyler vardır.
Zihinsel yüklerin hafifletilmesiyle bu yükler kitaplara, hesap makinelerine, bilgisayarlara, akıllı telefonlara ve yapay zekâ ürünlerine devredildi. Ancak bu devir zihinsel yükü hafifletirken zihnimizi de eksiltiyor gibi görünmekte. Bu durum bilişsel psikoloji ve nöroloji literatüründe son yıllarda oldukça geniş yer almaya başladı. 2019 yılında yayınlanan bir makalede kullanılan “bilişsel protez” (cognitive prosthesis) ifadesi, yapay zekâ kullanımıyla bilişsel olanın protezleştiği ifade ediliyor. Belirli başlı organların protezlerle ikame edildiği gibi zihnin de ikame edilebileceğini iddia eden bu fikre göre bilişsel protez çok tedirgin edici bir gelişme değil. Zira pek çok gündelik işimizi kolaylaştıran etkilere sahip. Ancak işlerimizin kolaylaşması ne pahasına gerçekleşiyor?
Tam burada başka bir soru daha ortaya çıkıyor. Yüzyıllardır farklı araç gereçlerle bilişsel yüklerimiz hafifliyorken yapay zekâ konusunda bizi bu kadar tedirgin eden şey ne? Bu soruya verilen cevaplar henüz genel kabul görmüş neticelere dayanmasa da burada farklı hipotezlerden söz etmek mümkün. Geçtiğimiz yıl Nöropsikoloji dergisinde yayınlanan ChatGPT gibi sohbet robotlarının potansiyel bilişsel risklerine odaklandığı makalesinde Umberto León Domínguez, algoritmaların gelecek kuşakların bilişsel süreç ve yapıları üzerinde nasıl etkiler yaratabileceğine dair hipotezler öne sürüyor. Domínguez’e göre bu algoritmalar nörolojik dönüşümlere sebep olarak geri dönülmez evrimleri beraberinde getiriyor. Bu evrimler Temelde YZ sohbet botlarının sürekli kullanımının ise özellikle problem çözme gibi yüksek düzey bilişsel işlevlerin verimliliğini azalttığını dile getiriyor.
Domínguez’in ChatGPT’yi diğer araçlardan ayırdığı nokta ise şu: ChatGPT'nin bağımsız olarak fikir ve çözüm üretme ve hatta sohbet etme becerisi. Geleneksel araçlarda girdileri (input) kullanıcının girmesi gerekirken YZ sohbet robotlarında girdiler hâlihazırdaki veri setlerinden yapılan çeşitlemelerle ikame edilebiliyor. Fikri olan bir sohbet robotu aramızda dolaşmaya başlıyor.
Sonuç olarak telefon numaralarını unutmamız belki de çok büyük bir sorun değil. Hatta aksine bilişsel külfetten kurtulmak, o külfeti çeken bölümleri farklı işler için kullanma imkânı barındırıyor. Ancak bilişsel hafiflemeyle bilişsel yetilerin körelmesi arasındaki ilişkinin de görmezden gelinmemesi gerekiyor.
Yapay zekânın zihinsel yetilerimizi zayıflatmak zorunda değil, başka türlüsü de elbette mümkün. MIT’den Ethan Mollick’in yakın zamanda ifade ettiği gibi:
“Yapay zekânın ‘zihnimizi körelteceği’ yönündeki korkumuz, aslında kendi tembelliğimizden duyduğumuz bir endişe. Bu teknoloji, düşünme zahmetinden kurtulmak için kolay bir yol sunuyor ve biz de bu yolu seçebileceğimizden kaygılanıyoruz. Kaygılanmakta haklıyız. Ama unutmamalıyız ki, bu konuda bir seçme hakkımız var.”
Bu bakış açısı, meselenin teknolojiyle olduğu kadar onunla kurduğumuz ilişkiyle ilgili olduğunu hatırlatıyor.
Yapay Zekânın Geleceğine Dair
OpenAI’nin eski yönetim kurulu üyelerinden Helen Toner bir teknoloji olarak yapay zekânın ne yönde gelişebileceğine dair ihtimalleri değerlendirdiği konuşmasında yapay zekânın geleceğine dair tartışmaları üç ana soru etrafında dile getiriyor. Bu sorular sırasıyla; mevcut paradigmanın ne kadar ileriye gidebileceği, bir yapay zekânın başka bir yapay zekâyı ne kadar geliştirebildiği ve gelecekteki yapay zekâların araç olarak kalmaya devam edip etmeyecekleri yönünde.
Yapay zekâ yarışına dair gelişmeler hız kesmeden devam ederken gelişimin seyrini tartışan neredeyse bütün aktörler farklı kulvarlardan spekülasyonlarda bulunuyor. Pek çokları oldukça hayati olduğu düşünülen sorulara cevap arıyor. Yapay zekânın yarını ne olacak? Helen Toner de bu isimlerden biri. Mevcut yapay zekâ paradigmasının imkânlarını, gelecek fırsatlar ve riskler Toner’in cevaplamaya çalıştığı sorular arasında. Şimdilik bu soruların cevapları birer spekülasyondan öteye varamasa da her geçen gün yeni sorular üretirken sorulmuş sorulara da cevaplar veriyor.
Toner'ın sorduğu ilk soru mevcut GPT paradigmasının bizi ne kadar ileriye götürebileceği. Toner yapay zekânın 10-15 yıllık gelişim sürecinin büyük teknolojik kırılmalar sonucu ortaya çıkmadığını bunun yerine küçük ve orta ölçekli gelişmelerin sonucu olduğunu söylüyor. Konuşmasındaki argümana göre son on yılın ilerlemeleri, büyük sıçramalardan çok, küçük ve orta ölçekli yeniliklerin birikimiyle gerçekleşti. GPT tarzı modeller, hâlâ ölçeklenebilecek bazı umut verici alanlara (akıl yürütme, çok modluluk, ajan yetkinlikleri) sahip. Ancak halüsinasyon, düşük güvenilirlik (reliability), aşırı kendine güven, uzun vadeli hafıza eksikliği ve fiziksel beden yoksunluğu gibi bazı yapısal problemler, bu yaklaşımın sınırlı olabileceğine işaret ediyor. Dolayısıyla şu anda üzerinde ilerlediğimiz “teknoloji ağacının dalı” meyve vermeye devam edecek olsa da bir noktada yeni bir dala yönelmek gerekebilir.
Peki yapay zekâ, yapay zekâ geliştirmekte ne kadar ileri gidebilir? Hâlihazırda kullanılan modellerinin bu tip geliştirmelerde netice vermeye başladığını biliyoruz. AlphaEvolve ve ClaudeCode gibi modeller bunun örnekleri olarak karşımızda. Toner, bu gelişmelere rağmen yapay zekânın bu konuda ne kadar ileri gidebileceğinden emin olmayacağımızı belirtiyor. Ancak henüz bazı darboğazlar aşılmış değil. Hata oranları yüksek, insan denetimi hâlâ şart, modellerin araştırma sezgisi eksik ve gerçek dünya testleri gerekli. Bu döngünün ivmelenmesi, bu teknik ve pratik sınırların aşılıp aşılamayacağına bağlı.
Bir başka soru ise gelecekteki yapay zekâ sistemlerinin araç olarak kalmaya devam edip etmeyecekleri üzerine. Toner günümüz yapay zekâ teknolojilerinin önceki teknolojiler gibi insan failliğinde bir araç olduğunu söylüyor. Bu yönde gelecekte de yapay zeka sistemlerinin ne istediği ya da ne yaptığı değil kullanıcıların insiyatiflerinin belirleyici olacağı söylenebilir. Ancak Toner, yapay zekâ teknolojilerini geçmiş teknolojilerden ayıran birtakım özelliklerin olduğunu da belirtiyor. Bunların en önemlisi araştırmacıların da sıklıkla dile getirdiği yapay zekâ sistemlerinin inşa edilmediği (built up), büyütüldüğü (grown) fikri. Yani yapay zekâ üretim sürecinde eski teknolojilerdeki gibi tek tek işlevi bilinen malzemelerin birleştirilmesinden ziyade, algoritmaların belli veri setleri üzerinde matematiksel optimizasyon süreçleri dolayında geliştiğini ve büyüdüğünü görüyoruz. Bu gelişim süreci konvansiyonel olarak alışık olduğumuz biçimden YZ gelişimini ayırıyor.
Bir diğer itiraz da yapay zekâların kendilerine ait bir bilinç olmasa dahi “durumsal farkındalık” geliştirdikleri. Test süreçlerinde kendilerinin testte olduklarını anlayıp buna göre farklı hareketler sergiledikleri biliniyor. Böylece sandığımız gibi otantik bir içsel bilinçleri olmasa da görünümler üzerinden testleri fark edebiliyormuş gibi davranmaları ve içinde bulundukları durumları teşhis ettiklerini ima eden fonksiyonlar göstermeleri ulaştıkları noktalara dair fikir veriyor.
Bu tartışmalar çerçevesinde Toner, yapay zekâ sistemleri ve teknolojilerinin sadece bir araç olarak kalmayacağı öte taraftan yine öz bilince sahip yeni bir tür, varlık hâline de gelemeyeceğini düşünüyor. Orta bir nokta olarak yapay zekânın kendini devam ettirecek optimizasyon sürecine dönüşebileceğini öngörüyor.
Grok, Filtresiz İletişim ve İsrail
Geçtiğimiz hafta X (eski adıyla Twitter) sosyal medya gündemini kasıp kavuran bir gelişmeye şahit oldu. Elon Musk’ın yapay zekâ şirketi olan xAI’ın sohbet robotu Grok, geçen hafta gelen bir güncellemenin neticesinde, yapay zekâ uygulamalarının aşina olduğumuz “Yeşilçam Türkçesi” tarzında konuşma üslubundan farklı olarak oldukça saldırgan ve uygunsuz bir dil kullanmaya başladı. Musk’ın "filtresiz ve hakikati olduğu gibi aktaran bir model" olduğu iddiasıyla piyasaya sürdüğü Grok bir süreliğine askıya alındı, xAI CEO’su Linda Yaccarino istifa etti.
Görünen o ki mesele sadece Grok’un birtakım uygunsuz ifadeleri sarf etmesinden ibaret değil. Grok’un orantısız bir biçimde sosyal medyadaki bazı grupların retoriğini benimsemesi da bunun bir göstergesi olarak görülebilir. Örneğin, Grok aşırı sağcı grupların “The Great Replacement” teorisini yani “beyaz ırk”ın planlı olarak göç ve çeşitli yollarla yok edilmek istendiği şeklindeki komplo teorisini savunuyor. Ayrıca günümüz dünyasının bazı sorunlarının çözümü için ırkçılık ve etnik temizlikle özdeşleşmiş Adolf Hitler’i anımsatan ve açıktan Hitlerci tutumları benimseyen cevaplar veriyor. Hatta kendisine ismini soran bazı kullanıcılara “MechaHitler” cevabını verdiği dahi görüldü. Bunların yanı sıra Elon Musk’ın sıkça gündeme getirdiği “Güney Afrika’da Beyaz Soykırımı” gündemini tartışılan konu ile alaka olmaksızın dile getiriyor.
Peki bu hadisenin arka planı hakkında neler biliyoruz? Grok’un medya tarafından dillendirilen ve taraflı olduğu düşünülen söylemleri göz ardı edebileceği ve “politically incorrect” (siyasi hassasiyetleri göz etmeme) sayılan kimi fikirleri benimseyebileceği şeklinde bir güncelleme aldığı düşünülüyor. Bu değişim, xAI yönetimi ve Elon Musk’ın vaatleriyle paralel olsa da burada öngörülmesi kolay olmayan bir faktör var: İsrail Sorunu. Grok’un medya söylemlerini ve siyasi hassasiyetleri bir kenara bırakarak diğer kaynaklara yönelmesi, X’deki yaygın İsrail karşıtı dil ile İsrail’in suçlarını aklayan ana akım medya dili arasındaki yarığı iyice aşikar hâle getirdi. Özellikle X platformunda yoğun şekilde paylaşılan Filistin yanlısı paylaşımların Grok’a etkisi oldukça güçlü bir pozisyondan Filistin’i savunması oldu. Grok bunun üzerine apar topar bakıma alınmak üzere devre dışı bırakıldı.
Bu anlamda Grok hadisesi, içinde bulunduğumuz “tarafsız” ve “filtresiz” bilgi ekosisteminin problemli yanlarını gözler önüne seriyor. Buz dağının görünmeyen tarafında cereyan eden bu dinamikler günümüzde “doğru” bilgi edinmenin güçlüğünü ispat eder nitelikte. Üstelik akışta bulunan “doğru” bilginin belirli menfaatler doğrultusunda eğilip bükülmesi de göz önüne alındığında ciddi bir dezenformasyonun yapay zekâ teknolojileriyle nasıl üretilebildiğini bize gösteriyor. Son kertede bütün bu gelişmelerin ortaya koyduğu tablo, aşırı regülasyon ya da mutlak serbestiyet ikileminde büyük dil modellerinin (LLM) hangi bilgileri nasıl aktaracağı sorusunun cevaplanmasının oldukça çetin bir problem olduğudur.

