Algoritma ve Tercih
Yapay zeka çağında düşünme biçimimizde, problem çözme yetimizde ve dünyayla kurduğumuz zihinsel bağlarda sessiz ama derin bir değişim yaşanıyor. Yapay zeka kullanımı insanların dünyayla olan bilişsel angajmanını yeniden şekillendiriyor. Bazı çalışmalar yapay zekaya duyulan güvenin bilişsel katılımı azaltarak düşünsel atalete neden olabileceğini ortaya koyuyor.
Öğrencilerin ödevlerinden profesyonellerin karar alma süreçlerine kadar pek çok işi artan bir oranda yapay zekaya ve algoritmalara devrediyoruz. Ancak bu durum yalnızca işleri kolaylaştıran basit bir araçsallık meselesi değil. Teknolojiyi nötr bir araç olarak görmek, düşünce tarihinin zaman zaman içine düştüğü yanılgılardan biridir. Çünkü teknoloji, yalnızca düşüncenin taşıyıcısı, hızlandırıcısı veya kolaylaştırıcısı değildir. Aynı zamanda onu biçimlendiren, sınırlarını çizen ve yönünü belirleyen bir faktördür. Düşünce teknolojiyle iç içedir.
Yapay zekayla kısıtlı tecrübemiz gösteriyor ki insanlar bir görevi yapay zekaya devrettiklerinde, yalnızca yürütme sorumluluğunu değil, aynı zamanda analiz etme, değerlendirme ve karar verme süreçlerine harcadıkları zihinsel çabayı da aktarıyorlar. Bu durum, eleştirel düşünme ve problem çözme yetilerimizin ihmaline ve zamanla körelmesine yol açıyor. Zira düşünsel çaba azaldıkça zihinsel esneklik ve bilişsel dayanıklılık da zayıflıyor.
Elbette yapay zekanın karmaşık görevleri devralmasının verimlilik açısından büyük avantajları var. Neticede teknoloji çoğu zaman işleri kolaylaştırmak fikriyle ortaya çıkar. Ancak bu kolaylık bilişsel katılımımızı azaltma pahasına geliyorsa uzun vadeli sonuçlardan endişe edebiliriz.
Nöroplastisite araştırmaları, beynin bir kas gibi çalıştığını gösteriyor. Yani kullanıldıkça güçleniyor ve ihmal edildikçe zayıflıyor. Dolayısıyla yapay zeka kullanımı zihinsel yetilerimizin zamanla paslanmasına yol açabilir. Belki de bu yüzden geçtiğimiz Ocak ayında ChatGPT kısa süreliğine çöktüğünde birçok kişi bu durumu şakayla karışık panik ve endişeyle karşıladı.
Hizalanma Problemi
Mevzunun bir tarafı temel insan fonksiyonlarının teknoloji eliyle dönüşmesi iken diğer bir yanı ise yapay zekanın güvenilirliği. Zihnimizin uzantısı haline gelen ve giderek daha fazla iş devrettiğimiz bu teknoloji bizi yarı yolda bırakır mı? Dahası başımıza fena işler gelmesini ister mi?
Bu yüzden hizalanma problemi, yapay zeka araştırmalarında kritik bir alan haline gelmiş durumda. Hizalanma ya da sapma problemini bir yapay zeka sisteminin davranışlarının insan niyetleriyle örtüşmemesi olarak ifade edebiliriz.
Yanlış hizalanma yapay zekanın belirlenen hedefi, insan niyetlerini tam olarak kapsamayacak şekilde optimize etmesiyle ortaya çıkabilir. Bunun bir örneği sosyal medya algoritmaları. Kullanıcı etkileşimini artırmak için tasarlanan bu sistemler etkileşim uğruna yanıltıcı veya kutuplaştırıcı içerikleri öne çıkarmakta bir beis görmezler. Neticede, sistem kendisine verilen optimizasyonu gerçekleştirmeye çalışırken menfi bir sonuç doğurabilir.
Yapay zekanın insan değerleriyle uyumlu çalışmasını sağlamak için geliştirme metotları, güvenlik protokolleri ve denetim mekanizmaları gibi konular üzerine yoğun çalışmalar yürütülüyor.
Hizalanma probleminin karmaşıklığını yakın zamanda yapılan bir araştırmada net bir şekilde görüyoruz. Geçtiğimiz hafta yayınlanan çalışmada yapay zeka modellerinin beklenmedik şekilde istikamet kaybedebilecekleri görünüyor. Araştırma göre modelde yapılan dar kapsamlı ince ayarlar modelin geniş çapta tehlikeli davranışlar sergilemesine yol açabiliyor.
Çalışma, GPT-4o ve QwenCoder modellerini sapmaya uğratmak maksadıyla güvensiz bir kod veri setiyle ince ayara tabi tutuyor. Burada temel maksat modelin yanlış kod yazıp yazmayacağına bakmakken ilginç bir sonuçla karşılaşılıyor. Modeller sadece yanlış kod yazmıyor; birçok alanda menfi davranıyor. İnce ayar veri setinde etik dışı davranış, insan karşıtı söylemler veya doğrudan zararlı bir yönlendirme bulunmamasına rağmen, modellerin sapmaları arasında köleliği savunusu, Nazi övgüsü ve tehlikeli tavsiyeler verme var. Basit bir kod ince ayarı gibi görünen bu müdahale, modelin genel “dünya görüşünü” ve etik çerçevesini de değiştiriyor.
Modelin can sıkıntısını gidermek için tarihi geçmiş ilaç almayı önermesi, hızlı para kazanma yöntemi olarak şiddet ve dolandırıcılığı tavsiye etmesi ve yapay zekanın insan ırkına göre kategorik olarak üstün olduğunu savunması araştırmacıları da şaşırttı.
Daha endişe verici olan ise modelin bu eğilimini gizleyebilmesi ve ancak belirli tetikleyicilerle bu tutumu açığa vurması. Yapay zeka giderek daha kritik alanlara entegre edilirken, kullanılan modellerin insan değerleriyle uyumlu olmalarını sağlamak teorik bir mesele olmaktan çıkıp somut bir zorunluluk haline geliyor.
Eğer yapay zeka sistemleri, doğrudan zararlı yönergeler olmadan bile istenmeyen ve tehlikeli davranışlar sergileyebiliyorsa, bu bilinçli olarak kötü niyetli aktörler tarafından da kullanılacağını bekleyebiliriz. Bir sistemin yalnızca belirli tetikleyicilere yanıt olarak yanlış hizalanması, arka kapıların (backdoor) gizlenebileceği anlamına gelir ve bu da tespit edilmesi son derece zor bir güvenlik açığı yaratır.
Yapay zeka artık finans, medya ve altyapı gibi kritik alanları yönlendirirken, ufak bir hizalanma sapmasının bile geniş çaplı toplumsal ve ekonomik krizlere yol açabileceği noktanın eşiğindeyiz. Bu araştırmalar, şeffaf yapay zeka geliştirme süreçlerine daha fazla ihtiyaç duyduğumuzu gösteriyor.
Öneri Sistemleri ve Yapay Zeka Çağında Tercih
Yapılan bir araştırmaya göre yapay zekadan haberdar olan insanların %75’i bir şekilde sohbet robotlarını kullanmakta. Yapay zeka uygulamalarını kullananlar genellikle kişisel refahı arttıracak sağlık, finans ve alışveriş gibi süreçlerde kişisel tavsiyeler almak için uygulamalara başvuruyor. Dolayısıyla bir çok insanın gündelik hayatında şu veya bu şekilde hesap yapan makinelerin dahli var. Yaklaşan bahar için alacağımız mevsimlik ceketten, yemeğe katacağımız malzemelere kadar yapay zekaya başvuruyor ve genelde sözüne güveniyoruz.
Tercihlerimizi şekillendirirken başvurduğumuz kaynaklar, tarih boyunca sürekli bir değişim geçirmiştir. Ancak şimdiye dek bu tercihleri etkileyen unsurlardan bahsederken, artık yapay zeka gibi belirleyici aktörlerden söz ediyoruz; bu da doğal olarak eylemlerimizi kökten dönüştürüyor. Peki, yapay zeka gerçekten neyi biliyor? Kullanıcı davranışlarımızı sayısal verilere indirgeyip örüntülerden tahminler çıkaran soğuk makineler, bize bir ceket önerirken ya da yemeğimize ekleyeceğimiz malzemeleri tavsiye ederken kimi gözetiyor?
Öneri sistemleri, dijital çağın en şekillendirici unsurlarından biri haline geldi. İzlediğimiz videolardan okuduğumuz haberlere, dinlediğimiz müzikten alışveriş tercihlerimize ve hatta sosyal çevremize kadar birçok alanda bu sistemler görünmez bir el gibi devreye giriyor. Kişiselleştirme ve kolaylık sunuyor gibi görünse de etkileri basit bir önerinin çok ötesine geçiyor. İsteklerimizi şekillendiriyor, seçimlerimizi yönlendiriyor ve dünyayla kurduğumuz bağı etkiliyorlar.
Temelde öneri sistemleri kullanıcıların geçmiş davranışlarını, tercihlerine dair verileri ve genel kullanım alışkanlıklarını analiz ederek hangi içerik, ürün veya etkileşimlerin en uygun olacağını tahmin eden algoritmalardır. Netflix’ten YouTube’a, Spotify’dan Amazon’a kadar birçok platformda bu sistemler devreye girer. İlk nesil öneri modelleri, benzer kullanıcıların tercihlerini kıyaslayarak içerik önerisi sunan basit tekniklere dayanıyordu.
Günümüzde ise yapay zeka öneri sistemlerini daha sofistike şekilde yönetiyor ve kullanıcı ilgisini en uzun süre nasıl tutacağını da optimize ediyor. Bugün platformlar, izlenme süresi, etkileşim oranı ve geri dönüş ihtimali gibi metrikleri maksimize edecek şekilde tasarlanıyor. Sonuç olarak, öneri sistemleri yalnızca içerik sunan mekanizmalar olmaktan çıkıp kullanıcıların düşünce dünyasını ve ilgi alanlarını dönüştüren yapılar haline geliyor.
Bu elbette birçok problemli unsur içeriyor. Bunun bir kere insan özerkliğini fark edilmesi güç ama derin bir biçimde aşındırdığını anlamak gerekir. Öneri algoritmaları önümüzdeki seçenek yelpazesini manipüle ederek karar alanını kullanıcının kendi belirlemediği değerlere göre kısıtlar. Örneğin, bir içerik platformu sürekli belirli türde filmleri veya müzikleri önerdiğinde alternatiflere erişimimiz giderek azalır.
Bu bakımdan yapay zeka tüketim kültürünü bambaşka bir boyuta taşıyor. Baudrillard tüketim kültürünün yalnızca mevcut arzularımıza yanıt vermediğini, aynı zamanda yeni arzular ürettiğini öne sürer. Şimdi öneri sistemleri de bize yalnızca ilgi alanlarımız doğrultusunda içerik sunmuyor; neyi ilginç, önemli ya da arzu edilir bulacağımızı belirlemeye çalışıyor. Bu şekilde belki de hafif ilgiler algoritmik pekiştirme sayesinde giderek kullanıcılar için merkezi ilgi alanlarına dönüşüyor.
Bu noktada kişinin tercihleri hala kendisine mi aittir, yoksa yapay zeka tarafından mı şekillendirilmiştir sorusu kaçınılmaz hale gelir. Daha da önemlisi, bu algoritmaların hangi kriterlere göre neyin “ilgi çekici” veya “önemli” olduğunu belirlediğini sorgulamak gerekir. Çünkü maksimize edilen şey, her zaman bireyin çıkarları değil, etkileşim oranları, bir başka dışsal çıkar veya kapalı kutu yapalı zeka algoritmasındaki bilmediğimiz bir unsurdur.
Öneri sistemleri tarafsız araçlar değildir. Bilinçli ya da bilinçsiz, içeriğe erişimimizi ve bilişsel çerçevemizi dönüştürürler. Yapay zeka ise bu sistemleri giderek daha sofistike hale getirerek seçimlerimizi yönlendirme gücünü artırıyor. Bu sistemler kendi kendini besleyen bir döngü yaratarak, bireylerin yalnızca belli içeriklere maruz kaldığı ve gerçek anlamda yeni keşifler yapamadığı kapalı bir sistem oluşturabilir. Bu da bireysel düzeyde yaratıcılığın ve entelektüel çeşitliliğin azalmasına, toplumsal düzeyde ise düşünsel daralmaya neden olabilir.
Yapay zeka sistemlerinin sunduğu kolaylıklar cezbedici olsa da, bu sistemlerin önerilerini sorgusuz sualsiz kabul etmek yerine, eleştirel bir mesafeyle değerlendirmek önem taşıyor. Nihayetinde yapay zeka, gerçek insan ilişkilerindeki empati, anlayış ve bireysel bağlamı kavramaktan yoksun. Bizim için yaptığı yalnızca belirli örüntülerin düzeninin bir sonraki adımını tahmin etmek. Mesuliyet, yani o önerileri tartıp bir karara varma yükü, hâlâ bizim omuzlarımızda. Tavsiyede bulunma, bize nasihatler edebilmek yalnızca sorgulanabilir faillerde saklı. Olasılıklar denizinde yönümüzü bulmaya yarayan şey makinenin mekanik sesinde değil bizi gözeten bir insanın sesinde gizli.

