Yapay Zeka’nın Wright Kardeşler Anı
Geçtiğimiz hafta Apple “düşünme illüzyonu” adlı tartışmalı bir çalışma yayınladı. Apple’ın makine öğrenimi ekibi, makalede, popüler yapay zeka modelleri üzerinde çeşitli zorluk sevilerinde mantık testleri uyguladı ve karmaşıklık arttıkça, sistemlerin performansının düştüğü neticesine vardı. Modellerin çıktılarını inceleyen ekip, ‘düşünen modellerin’ dahi düşünüyormuş gibi yaparak aslında yine bildikleri kalıpları tekrarladıkları kanaatine vardı.
Yapay zeka araştırmacısı Nathan Lambert konuya daha farklı bir yerden yaklaşıyor. Lambert’a göre, şu anda yapay zekanın tarihi bir eşiğe geldiği “Wright Kardeşler anı” yaşanıyor. Tıpkı Wright kardeşlerin uçağının kuşlar gibi kanat çırpmadan havalanması gibi, yapay zeka da insan benzeri bilinç veya deneyim olmadan gerçek anlamda muhakeme ve problem çözme yeteneği sergileyebiliyor. Bu durum, “düşünme”nin sadece insana özgü bir yeti olarak görülmesinin sorgulanmasına yol açıyor.
Lambert’e göre, modellerin düşünme biçimi insanlarınkinden radikal biçimde farklı olsa da, işlevsel açıdan eşdeğer veya hatta kimi durumlarda daha verimli olabilir. Yapay zekanın algoritmik muhakemesi ile insan düşüncesi arasında doğrudan bir benzerlik kurmak gerekmediğini savunan bu yaklaşım, yapay zekanın epistemolojik statüsünü yeniden tartışmaya açıyor. Kısacası, Lambert’e göre asıl illüzyon, yalnızca insan gibi görünen şeylerin “düşünebileceğine” dair ısrarımız olabilir.
Ancak bu yorumlamanın da kendi içerisinde barındırdığı bazı krizler var. Zira düşünüyormuş gibi fonksiyon gösteren her şeyin düşündüğüne kanaat getirmek gündelik dilde kullandığımız bütün kavramların altını oymaya aday. Turing deneyinden beri tartışılan bir fenomen olarak yapay zekanın düşünüyor fonksiyon gösterebilmesi meselesiyle karşı karşıyayız. Apple’ın makalesi de aynı tartışmanın ucuna ekleniyor gibi görünmekte. Bu durum Silikon Vadisinde düşünme üzerine düşünen pek çok mühendis için hayal kırıklığı olsa da makinelerin düşündüğünü söylemek aslında insanoğlunun nasıl düşündüğünü bilmemekten ileri geliyor.
Dolayısıyla bu tip benzetimlerde makinelerin insanlara benzediği düşünmeden evvel düşünülmesi gereken şey insanların o işlevleri nasıl gerçekleştirdiği. Bu makine-insan benzetiminin kökeninde ise çoğunlukla makineleri insanlar gibi hayal etme yanılgımız bulunuyor. Teknik gelişmeleri insani ihtiyaçlarımız ekseninde tasarlamanın pratik faydaları bulunsa da makineleri insan gibi hayal etme yanılgımıza da hizmet ediyor. Yani makine insan gibi yazı yazıyor diyebilmek için önce insanın nasıl yazı yazdığını çözmemiz gerekmekte. Aksi halde “gibi”lik bütün hayatımızı kuşattığında “asıl olan”la bağımız çoktan kopmuş olabilir.
Yapay Zeka ve Etik Sorunsallar
Yapay zekanın yükselişi, yalnızca teknik kapasitenin genişlemesi değil, aynı zamanda insan anlayışının, etik ilkelerin ve toplumsal ilişkilerin yeniden tanımlanması anlamına geliyor. Makineye bakarak insani yanlarımıza ve etik kararlarımıza dair düşüncelerimiz yeniden şekilleniyor. Bu dönüşüm sayesinde teknolojik gelişmelerin nötr olmadığını; aksine belirli toplumsal değerleri, iktidar ilişkilerini ve kültürel normları hem yansıttığını hem de dönüştürdüğünü anlayabiliriz.
Bu dönüşüme örnek olarak OpenAI'ın kullanıcı sohbetlerine dair tüm verileri içeren bir mahkeme kararıyla karşı karşıya kalması verilebilir.
The New York Times, 2023’te OpenAI ve Microsoft’a dava açarak, milyonlarca haber içeriğinin yapay zeka modellerini eğitmek üzere izinsiz kopyalandığını öne sürmüştü. Yayın, kullanıcı verilerinin saklanmasının, kendi davasına kanıt oluşturabileceğini iddia ediyor. OpenAI CEO’su Sam Altman ise X platformundaki paylaşımında, "Bu, kötü bir emsal oluşturan uygunsuz bir talepti. Kullanıcı gizliliğini zayıflatacak her türlü talebe karşı mücadele edeceğiz; bu, temel bir ilkedir." açıklamasında bulundu. The New York Times konuya ilişkin yorum yapmayı reddetti.
Kararın manuel olarak silinmiş verileri dahi kapsıyor oluşu, bireyin dijital ortamda kendini "unutulmaya" bırakma hakkını da tartışmaya açıyor. Bu durum neredeyse hiçbir şekilde silinemeyecek bir dijital iz riskini gözler önüne seriyor. Mahremiyetin yalnızca teknik bir güvenlik meselesi olmasının ötesinde yalnızca var olduğumuz için ihtiyaç duyduğumuz bir hak oluşunun gündem edilmesi gerekiyor.
OpenAI CEO'su Sam Altman’ın doktor-hasta ilişkisine benzer bir "yapay zeka gizliliği" önerisinde bulunması dijital araçlarla kurulan bağların artık salt kullanıcı-nesne ilişkisi olmaktan çıkıp daha karmaşık, duygusal ve hatta etik bir ilişki biçimine dönüştüğünü gösteriyor. Bu soruşturma kapsamında OpenAI şirketi söz konusu verilerle ne yapacağını ve bu verilere erişimin, her ne kadar saklanmak zorunda olsalar da, kullanımının kısıtlı olacağını belirtti.
Şirketin politika direktörü, kullanıcıların yapay zekaya yönelik insani eğilimlerine ve bu bağlamda şekillenen duygusal yakınlığın etik sınırlarına dikkat çekiyor. Özellikle yapay zeka sistemlerinin empati kurma ve bağlanma yönündeki toplumsal eğilimleri istismar edecek şekilde tasarlanması, duygusal tatminin simülasyonlarla sağlandığı, giderek daha fazla yalnızlaşan bir toplumun habercisi olabilir.
Asıl mesele, teknolojinin bizi nasıl dönüştürdüğünden çok, bizim teknolojiyi nasıl insanileştirdiğimiz ve onun karşısında kendimizi nasıl yeniden kurguladığımız halini alıyor. Yapay zeka ile kurulan bu yeni bağlar insanın ne olduğu, neye değer verdiği ve neyle ilişki kurmak istediği gibi temel soruları yeniden gündeme getiriyor.
Sosyal hayatta hızla yer edinen bu sistemlerin toplumsal normları ve etik duyarlılıkları da çok ciddi bir etkiyle dönüştürme potansiyeli var. Bu nedenle, yapay zekanın tasarımı mühendislik hesaplarının yanında; etik, felsefi ve kültürel bir bilinçle birlikte ele alınmalıdır. Yapay zekanın insan ilişkilerini gelecekte nasıl dönüştüreceği hala belirsizliğini korurken, bu sürecin yalnızca düzenlenmesi değil, aynı zamanda derinlemesine anlaşılması ve eleştirel bir bakışla değerlendirilmesi de büyük önem taşıyor.
Meta’nın “Gizlilik Felaketi”
Meta'nın Mayıs 2025’te kullanıma sunduğu yapay zeka sohbet uygulaması, ciddi bir mahremiyet krizine yol açtı. Uygulamanın “Discover” sekmesi, kullanıcıların chatbot ile yaptığı yazılı ve görsel sohbetleri kamuya açık şekilde yayınlıyor. Her ne kadar bu içerikler teknik olarak kullanıcı tarafından “paylaş” seçeneğiyle kamuya açılıyor olsa da, arayüzün yetersiz uyarıları ve gizlilik seçeneklerinin belirsizliği, pek çok kişinin bu özelliğin farkında olmadan kişisel verilerini ifşa etmesine neden oluyor.
Kamuya açık sohbetlerde kullanıcılar, vergi kaçırma planlarından sağlık sorunlarına, suç itiraflarından özel ilişkilere kadar pek çok hassas konuda bilgi paylaştı. Bu durum, bireysel gizliliği tehdit etmenin yanında, aynı zamanda sosyal mühendislik, kimlik hırsızlığı ve dijital manipülasyon gibi daha geniş kapsamlı risklere de zemin hazırlıyor. Meta’nın bu sisteminin geçmişte şirketin yaşadığın büyük veri skandallarını hatırlattığını ve tasarım kaynaklı bu sorunun sistemik olduğu vurgulanıyor. Kullanıcı deneyimini merkeze almayan, şeffaflık ve güvenlik prensiplerinden uzak bu tür tasarım tercihleri, teknoloji şirketlerinin sorumluluğunu yeniden tartışmaya açıyor.
Meta’nın gizlilik felaketi müstakil bir olay olsa da neredeyse her hafta benzer bir ‘hata’ kamuoyuna yansıyor. Peki bu yapay zekaya duyulan kullanıcı güvenini sarsacak mı? Kabaca üç ihtimal var. Birinci ihtimal gizlilik ihlallerine rağmen yapay zeka kullanmanın avantajlarının ağır basması. Bunu başta sosyal medya siteleri olmak üzere birçok teknolojik gelişmede gördük. Diğer bir ihtimal, sadece gizlilik konusunda hassasiyetini ve rüştünü ispat etmiş modellere itimat edilmesi ve kullanıcı teveccühünün buraya kayması. Ya da bütün modeller sıkı yasal düzenlemeler aracılığıyla kontrol altına alınacak. Ancak yapay zeka geliştirmenin ulusal birer proje haline geldiği ve bu şirketlerin ulusal şampiyon olduğu bir dünyada bu da oldukça uzak bir ihtimal olarak görünüyor.

