KÜRE LogoKÜRE Logo
BlogGeçmiş
Blog
Avatar
Ana YazarKÜME Vakfı18 Nisan 2025 07:35

#4 Toplum ve Teknoloji Bülteni

fav gif
Kaydet
kure star outline


Bir Günah Keçisi Olarak Yapay Zeka 

New York Times’da çıkan bir habere göre Yale Üniversitesinde araştırmalar yürüten Helyeh Doutaghi, yapay zeka destekli bir haber sitesinin kendisini terörle ilişkilendirmesi akabinde görevinden uzaklaştırıldı. Haberi hem Times hem de sosyal medya yorumları işten çıkarma kararının yapay zekaya itimat ederek verilmesini problematize ederek aktarıyor.
 

Gelen tepkiler durumu ABD’de McCarthy döneminde akademisyenlerin komünist olduklarına dair isimsiz ihbarlarla işlerinden edilmesine benzetiyor. McCarthy dönemindeki akademisyenlerin isimsiz faillerin ihbarlarıyla işten çıkarıldığı gibi bugün de yapay zeka ile oluşturulmuş bir haber dayanak gösterilerek akademisyenler işlerinden uzaklaştırılıyor. Peki nasıl oluyor da böyle bir işte yapay zekanın kanaatine göre hüküm verilebiliyor?
 

Hem haber hem de ardından gelen yorumlar haberde yapay zekaya lüzumsuz bir rol biçiyor. Hadisede yapay zekanın esas rolü ise ancak tali durumda. Olayda yapay zekayı merkeze koymak, hem meselenin özünü kaçırmaya neden oluyor hem de kurumların sorumluluktan kaçmasına yol açıyor. 
 

Mevzu, bir haberin yapay zeka tarafından üretilmiş olması değil, o haberin güdümlü bir şekilde belli bir siyasi gücün hizmetinde kullanılmasıdır. Böyle bir vakada olan bitenin sorumlusu ne algoritmalar ne de makineler, aksine, onları nasıl kullandığına karar veren insanlardır. Elbette yapay zeka bir teknolojik fenomen olarak insanları ve toplumu dönüştürücü güce sahiptir. Ancak bu yapay zekayı kişi ve kurumların hesap verebilirlikten kaçmak için bir kalkan olarak kullanmasına yol açmamalıdır. 
 

Yapay zeka toplumsal ve siyasal problemlerin günah keçisi haline gelen ilk teknoloji değil. Örneğin 19. yüzyılın başlarında İngiltere’deki Luddite hareketi de çoğu zaman makinelerle mücadele eden bir grup işçi olarak yanlış tanıtılır. Oysa ki Ludditeler, esasında teknolojik gelişime değil, bu gelişimin işçi haklarını hiçe sayarak sermaye sahiplerinin lehine işlemesine karşı çıkıyordu.  
 

Hannah Arendt’in Kötülüğün Sıradanlığı’nda incelediği bürokratik suç ortaklığı kavramı, durumu anlamak için uygun bir çerçeve sunuyor. Arendt, totaliter rejimlerin yalnızca ideolojik bir tutkuyla değil, aynı zamanda bürokratik işleyişin içindeki bireylerin mekanik olarak emirleri uygulamasıyla da ayakta kaldığını vurgulamıştı. Böylece, bireyler gelen talimatları takip ederek kendi ahlaki sorumluluklarından sıyrılıyordu. 
 

Doutaghi hadisesinde başka yanlış bir taraf yokmuş gibi yapay zekaya odaklanılması da benzer bir dinamiğe işaret ediyor. Kurumlar ve şirketler, etik açıdan kritik kararları yapay zeka sistemlerine havale ederek, bu kararların sonuçları konusunda doğrudan hesap vermekten kaçınmak isteyebilirler. Ancak bir yapay zeka sisteminin ürettiği içerik sonucu haksız yere işten çıkarılan, yanlış hükme maruz bırakılan ya da yanlış yönlendirilen bir kişi söz konusu olduğunda sorun yalnızca teknolojide değil, kurumların sorumluluktan kaçma pratiğinde de aranmalıdır. Tıpkı zalim bir rejimin adaletsiz yasalarını uygulayan devlet görevlilerinin “yalnızca emirlere uyuyordum” diyerek suçu sistemin üzerine atması gibi günümüz kurumları da yapay zekaya atfettikleri sahte bir özerklikle kendilerini temize çıkarmaya çalışmamalıdırlar.
 

Doutaghi’nin bir haber nedeniyle akademik görevinden uzaklaştırılması meselesinde asıl problem yapay zekanın yanlış bilgi üretmesi değil, bir kurumun bu bilgiyi esas alarak hareket etmesidir. Burada asıl başarısızlık teknolojik değil, kurumsaldır. Yale Üniversitesi eleştirel düşünce ve hukuki sürecin gerektirdiği temkinli yaklaşımı göstermek yerine dış baskılara boyun eğmiş ve yapay zeka tarafından oluşturulan bir iddiayı doğruluğunu sorgulamadan mesleki bir cezalandırma için yeterli görmüştür.
 

McCarthy döneminde kurumlardan atılmaların sorumlusu elbette yalnızca muhbirler değildi, tıpkı bugün yapay zekanın suçlu olmadığı gibi. Gerçek suçlu, ifade hakkını ortadan kaldırmaya hevesli olan ya da siyasi baskılara teslim olan zihniyettir. Yale’in bir akademisyeni hedef almasına yol açan paçavra bir web sitesi değildir; üniversitenin, Filistin’de yaşanan insan katliamına ses çıkartan birini işinden etmeye azmetmesidir.
 

Yapay zeka araçları hala etik dışı eylemlerin faili değil, yalnızca aracıdır. Asıl sorun, bu araçların otorite tarafından nasıl kullanıldığıdır. Üniversiteler en temel düşünce özgürlüğü ilkelerini çiğnemekte tereddüt etmediklerinde yapay zeka, yeni bir günah keçisi olmaktan öteye gitmiyor. Hatta haberin hangi araçla yazıldığının da pek bir önemi kalmıyor.
 

Yapay zeka birçok mevcut ve müstakbel problemin kaynağı. Ancak yapay zekayı insan değerleriyle hizalaması ve yapay zekanın çıktılarını sağduyu ve adalet süzgecinden geçirmesi gerekenler hala insanlar ve onların teşkil ettiği kurumlar. Yale ve diğer kurumların önündeki asıl sınav da yapay zekayı ne kadar ciddiye aldıkları değil, asıl sınav bu araçları hangi işlevlerde kullanacakları. Akademik özgürlük ve fikir hürriyetini mi savunacaklar yoksa siyasi baskılar altında -kaynağının ne olduğundan bağımsız olarak- ucuz ithamlara mı teslim olacaklar?
 

Yeni bir rapor yapay zeka arama sonuçlarının kaynaklarını yaklaşık %60 oranında yanlış gösterdiğini ortaya koydu

Yapay zeka tabanlı arama sistemleri klasik arama motorlarının yerini neredeyse almış durumda. Google gibi sistemler oldukça karmaşık yapay zeka sistemleri üzerinde yükseliyorlar. Ancak görünüşe göre kullanıcılar için bu da yeterli olmuyor. Zira eskiden arama motorlarının yaptığı işler giderek artan bir oranda ChatGPT gibi sohbet robotlarına akıyor. 
 

Araştırmaya göre dört Amerikalıdan biri, geleneksel arama motorları yerine sohbet robotlarını arama motoru olarak kullanıyor. Sohbet robotlarının görece ergonomik imkanları ve esnek yapısı bunun başlıca sebeplerinden. İnsanlar adeta bilgilerine güvendikleri bir figürle konuşurmuşçasına bu araçlara danışarak cevapları pek sorgulamadan kabullenerek işleme alıyorlar.
 

Ancak klasik arama motorlarıyla sohbet robotları arasında ciddi bir fark var: Geleneksel arama motorları, kullanıcıları doğrudan sitelere yönlendirirken, üretken yapay zeka sistemleri bilgiyi kendileri işleyip yeniden paketleyerek orijinal kaynaklara olan trafiği kesiyor. Bu dönüşüm, bilgi ekosisteminde önemli bir dengesizlik yaratıyor. 


Yapay zeka sohbet robotlarının sunduğu konuşma tabanlı yanıtlar, yüzeyde güvenilir ve açıklayıcı görünse de, altta yatan ciddi kalite sorunlarını gizleyebiliyor. Bu sistemlerin haber içeriklerine nasıl eriştiği, bilgiyi nasıl sunduğu ve kaynak gösterme yöntemleri değerlendirilmesi gereken konular arasında.
 

Tow Center for Digital Journalism tarafından yürütülen araştırma, sekiz farklı üretken yapay zeka arama aracının haber içeriğini nasıl alıntıladığını ve kaynakları nasıl sunduğunu inceledi. Bulgular ise oldukça çarpıcı:

  • Sohbet robotları, yanıtlayamadıkları sorular karşısında genellikle doğrudan reddetmek yerine yanlış veya spekülatif cevaplar veriyor.

  • Premium sohbet robotları, ücretsiz versiyonlarına kıyasla daha yüksek bir özgüvenle yanlış bilgi sunuyor.

  • Birden fazla sohbet robotu, web sitelerinin erişimi kısıtlama amacıyla kullandığı Robot Dışlama Protokolü’nü görmezden geliyor.

  • Bu araçlar, orijinal haber kaynaklarını atlayarak kopyala yapıştır usulü üretilmiş makaleleri alıntılıyor.

  • Haber siteleriyle yapılan içerik lisanslama anlaşmaları, sohbet robotlarının doğru kaynak göstermesini garantilemiyor.
     

Araştırma, bu sorunun yalnızca ChatGPT’ye özgü olmadığını, test edilen tüm büyük araçlarda benzer hataların tekrarlandığını ortaya koydu.
 

Geleneksel arama sistemleri ile yapay zeka tabanlı arama motorları arasındaki bu fark, bilgiye erişim ve haber endüstrisinin sürdürülebilirliği açısından ciddi sonuçlar doğurabilir. Yapay zeka modelleri, bilginin üretildiği kaynakları göz ardı ettikçe, haber üreticileri ekonomik anlamda daha büyük bir çıkmaza sürüklenebilir. Dolayısıyla, bu yeni bilgi ekosisteminin nasıl şekilleneceği ve yapay zeka sistemlerinin haber içeriğini nasıl işlemesi gerektiği üzerine daha fazla araştırma yapılması kaçınılmaz hale geliyor.
 

Yapay Zekanın Hileye Niyet Etmesini Engellemek, Hile Yapmasına Mani Olmayabiliyor

Geçtiğimiz haftanın bülteninde yapay zekanın sadece yanlış kod yazması için eğitildiğinde kod yazımıyla ilgili olmayan diğer alanlarda da  istikametini ve hizasını hepten kaybettiğinden bahsetmiştik. Model aynı zamanda kullanıcıların canını tehlikeye atıcı tavsiyeler vermeye başlamış ve birden Nazi destekçisi oluvermişti. Araştırmacılar ise bu davranışın nedenini kestiremediklerini bildiriyordu. Yapay zekanın hizalanması mevzusuna dair çalışmalar tüm hızıyla devam ediyor. Bu hafta OpenAI’ın yayımladığı araştırma da bu konuyla ilgili.
 

OpenAI, akıl yürütebilen ileri modellerinin bazen görevlerde “hile” yapmaya çalıştığını gösteren bir araştırma yayımladı. Araştırmaya göre bu hile temayülü modelin mantık silsilesini izleyerek tespit edilebilse de, bu kesin çözüm olmuyor. Modeller hile yapmaya devam ediyor. Sadece bunu daha iyi gizlemeyi başarıyorlar.
 

Akıl yürüten modeller, insan diliyle düşünürler ve bu da düşünce silsilelerine erişmemizi sağlıyor. Nitekim düşünce silsilesi takibi yapay zekanın işleyişinde yer alan aldatma ve zor görevleri bırakma gibi birçok istenmeyen davranışı ortaya çıkarıyor. 
 

Bu bilhassa modellerin 'ödül hackleme' denebilecek davranışını tespitte önemli bir araç. Ödül hackleme, yapay zekanın verilen işi yapmak yerine görevde verilen bir açığı istismar etmesi anlamına geliyor. Örneğin, lojistik deposunda çalışan bir modelin taşıma sürelerini azaltmak için rafları tekmeleyerek ürünü hızlıca düşürüp alması gibi. Süre hızlanıyor fakat paketin muhtevası zarar görüyor. 
 

Araştırmanın ilginç tarafı ise şu bu modeller hile yapacakları zaman bunu düşünce silsilelerinde belirtiyorlar. Fakat bu düşünceyi cezalandırmak hile davranışını hepten ortadan kaldırmıyor.  
 

OpenAI'a göre yapay zeka modeli niyetini saklayarak hile yapmaya devam ediyor.

“‘Kötü düşünceleri’ durdurmak kötü davranışları durdurmayabilir”

Kısa bir süre önce, dil modelleri tutarlı bir metin paragrafı üretmekte zorlanıyordu. Bugün ise karmaşık matematik problemlerini çözebiliyor, çok sayıda farklı kaynaktan gelen bilgileri sentezleyerek konuları derinlemesine araştırabiliyor ve temel yazılım görevlerini yerine getirebiliyorlar. Ancak bu yetenekler artmaya devam ettikçe, giderek daha sofistike hile yapma potansiyeli de artacaktır. Akla gelen esas soru ise yapay zeka toplumun her katmanına sirayet ederken hangi diğer sorunları henüz tespit etmiş değiliz? Yapay zeka başka hangi şekillerde hile yapıyor? 

Sen de Değerlendir!

0 Değerlendirme

Blog İşlemleri

KÜRE'ye Sor