BlogGeçmiş
Blog
Avatar
YazarKÜME Vakfı20 Mayıs 2025 04:25

#12 Toplum ve Teknoloji

fav gif
Kaydet
kure star outline

Yeni Kuşaklar AI'ı Hayat Rehberi Olarak Kullanıyor
 

OpenAI CEO’su Sam Altman, AI Ascent 2025’deki konuşmasında genç kuşakların yapay zeka kullanımına dair dikkat çekici gözlemlerini paylaştı. 

Altman’ın da kanaatlerine göre gençler yapay zekayı hayatlarını organize eden bir “dijital yaşam sistemi” olarak değerlendiriyor. Altman’a göre 20’li ve 30’lu yaşlarındaki kullanıcılar ChatGPT’yi yalnızca bir bilgi motoru değil, kişisel danışman gibi kullanıyor. Bu kuşak, diğer işlerde kullanmanın yanı sıra gündelik yaşamlarına dair pek çok önemli soruyu GPT’ye soruyor ve aldıkları cevaplar davranışlarını etkiliyor. Altman’a göre gençler, yapay zekayla kurduğu ilişkiyle dijital özneyi gerçeğe yaklaştırıyor. Böylece GPT modelleri pek çok gündelik bilgimize vakıf olan, kişisel farkındalığımızı üstlenen kapsamlı bir bilgeliğe erişmiş durumda. 
 

Tam da bu minvalde bugün OpenAI sosyal medya hesabı, Instagram gönderisinde sohbet robotuna kendiniz hakkında daha fazla şey öğrenmek için sorulması önerilen sorular paylaştı. Bu sorular şöyle: “Günlük rutinime eklememi önerdiğin ufak anlamlı bir alışkanlık ne olabilir?”, “Konuşmalarımızdan yola çıkarak benim temel değerlerimin ne olduğunu söyleyebilirsin?”, “İnsanların benim hakkımdaki ilk izlenimleri hakkında ne düşünürsün?”
 

En mahrem duygu ve düşüncelerin bu modellerle paylaşımı, yapay zekayı yalnızca bir araç değil, bir içsel tanık haline getiriyor. 

Model Hataları ve Toplumsal Yansımalar

Elon Musk'ın yapay zeka şirketi xAI'nin sohbet robotu Grok, X.com üzerindeki etkileşimlerinde beklenmedik bir şekilde "Güney Afrika'da beyaz soykırımı" konusuna göndermeler yaparak tartışma yarattı. Kullanıcıların spor, eğlence gibi çeşitli konulardaki sorularına alakasız bir biçimde bu hassas konuyu dahil eden Grok'un yanıtları platformda geniş yankı uyandırdı. xAI tarafından yapılan resmi açıklamada, bu durumun "yetkisiz bir müdahale" sonucu meydana geldiği belirtildi. Şirket, Grok'un sistem istemlerinde yapılan bu manipülasyonun, xAI'nin temel değerleri ve iç politikalarıyla bağdaşmadığını vurguladı.
 

Olayın ardından hızla harekete geçen xAI, kapsamlı bir soruşturma başlattığını duyurdu. Şirket, Grok'un şeffaflığını ve güvenilirliğini en üst düzeye çıkarmak amacıyla bir dizi önlem alacağını açıkladı. Bu önlemler arasında, gerekli bilgilerin kamuoyuyla şeffaf bir şekilde paylaşılması, inceleme süreçlerinin yeniden yapılandırılması ve gelecekte benzer olayların önüne geçmek için 7/24 görev yapacak bir izleme ekibinin kurulması bulunuyor.


Grok’un Güney Afrika’da “beyaz soykırımı”na dair gönderme yapan yanıtları yalnızca teknik bir aksaklık ya da “yetkisiz müdahale” ile açıklanamayacak bir semptom olarak okunmaya da müsait. Yapay zeka sistemlerinin giderek genişleyen etki alanında bu tür içeriklerin “kazara” görünmesi, aslında dijital altyapının siyasal ve ideolojik mayın tarlasına ne kadar hazırlıksız adım attığını gözler önüne seriyor.


xAI’nin “şirket değerleriyle bağdaşmayan bir manipülasyon” açıklaması, sorumluluğu sistem dışı bir özneye yükleyerek kurumsal imajı korumaya yönelik klasik bir refleksi yansıtsa da, asıl meseleye dokunmuyor: Bu tür içerikler neden yapay zekanın semantik ağında yer bulabiliyor? Hangi değer yargıları, hangi sansür mekanizmaları, hangi etik katmanlar bu çarpık içeriği süzemedi? Yahut nasıl bir eğitim süreci makinenin böyle bir çıktı vermesine sebep oldu.


Bu olay, Elon Musk’ın “özgür platform” idealiyle şekillenen Grok gibi sistemlerin, yalnızca kullanıcılarla değil, çağın tartışmalı ideolojileriyle de etkileşime açık olduğunu gösteriyor. Bu sistemler sadece cevap üretmiyor; aynı zamanda kültürel kodları yeniden yazıyor, dijital kanaatleri biçimlendiriyor ve toplumsal belleğe nüfuz ediyor. Kimin adına konuştuğu belli olmayan bir algoritmanın, hangi niyetle konuştuğu da meçhul kalıyor.


Sam Altman’ın esprili yorumuyla hafifletmeye çalıştığı bu durum, aslında çok daha ağır bir soruyu yeniden gündeme getiriyor: Yapay zeka sadece bir araç mı, yoksa artık fail mi? Eğer bu sistemler, politik olarak yüklü, tarihsel olarak kırılgan içerikleri kendi inisiyatifleriyle ya da bilinçsiz bir veri yankısıyla dolaşıma sokabiliyorsa burada asıl sorun “kimin kodladığı”ndan çok, “neyin kodlandığı” oluyor.


Kamuoyunda yankı uyandıran bu vaka, yapay zekanın denetlenmesinin yalnızca teknik değil, aynı zamanda etik, kültürel ve politik bir sorumluluk alanı olduğunu bir kez daha hatırlatıyor. Şimdi soru şu: Kodun arkasındaki irade kim? Yahut böyle birini aramalı mıyız?
 

Yapay Zeka ve Meslekler: Değişim mi, Tasfiye mi?

Yapay zekanın pek çok sektörü derinden etkileyeceği ve geleneksel meslekleri ortadan kaldıracağı yönündeki yaygın endişelere rağmen, radyoloji alanında yaşanan gelişmeler bu öngörülerin her zaman geçerli olmayabileceğine dair bir örnek teşkil ediyor. Beklenin aksine, yapay zekanın radyoloji alanında kullanımı istihdamı arttırıyor ve mesleğin rolünü dönüştürüyor. 
 

Bu durum akıllara yapay zeka ve istihdam arasındaki dengenin sorgulanmasını getiriyor. Bir tarafta yapay zekanın pek çok kişiyi işsiz bırakması riski varken öte yandan aslında tam olarak böylesi bir krize gitmeden çözüm yollarına sahip olma ihtimali var. Buna bir örnek ATM’ler. Bankacılık sektöründe çalışanları tamamen ortadan kaldırmak yerine, onların iş rollerini dönüştürerek hizmet süreçlerini daha verimli hale getirmiştir. Benzer şekilde, yapay zeka da iş gücünü tamamen ikame etmekten ziyade, çalışanların verimliliğini artırarak yeni iş alanları ve roller oluşturma potansiyeline sahip.
 

Çoklu Diyaloglar, LLM’lerin Kör Noktası

Dil modellerinin dünyasına adım attığımızda, onların karmaşık komutlar karşısındaki hassasiyeti bize biraz şaşırtıcı gelebilir. Tıpkı bir orkestra şefinin karmaşık bir partisyonu yorumlamakta zorlanması gibi, son araştırmalar da dil modellerinin çok aşamalı ve sınırları belirsiz yönergeler karşısında %39'a varan bir performans düşüşü yaşadığını gözler önüne seriyor. Bu düşüşün ardında yatan nedenler ise oldukça alışık olduğumuz şekilde erken yargılara varma telaşı ve gereksiz detaylarla örülü uzun uzadıya cevaplar üretme eğilimi.
 

Bu paradoksal durum, yapay zekanın en önde gelen gelişimlerinden olan dil modellerinin bile, insan dilinin nüanslarını ve bağlamsal derinliğini henüz tam olarak kavrayamadığını gösteriyor. İşte tam da bu noktada, "komut üretimi" sanatı (prompt engineering), adeta bir kutup yıldızı gibi görünüyor. Öyle ki bu yeni zanaat artık özel derslerde öğretiliyor, sayfalar dolusu kitaplara konu oluyor. Zira dil modellerini bilgi denizinde yol alırken yönlendiren yegane şey, kendilerini besleyen devasa veri yığınlarının yanı sıra onlara yön veren komutların berraklığı ve bağlamsal zenginliği.
 

Dil modelleri ancak eğitildikleri verilerin ve aldıkları komutların sınırları içinde düşünebiliyor ve cevap üretebiliyorlar. Bu nedenle onlara sunulan her bir kelime, her bir ifade, sorulan her bir soru ve yapılan her bir istek, modelin vereceği cevabın kalitesini ve doğruluğunu derinden etkileyen hayati birer unsura dönüşüyor. Tıpkı bir tohumun yeşerebilmesi için doğru toprak ve suya ihtiyacı olması gibi, dil modellerinin de anlamlı ve bağlamsal açıdan zengin çıktılar üretebilmesi için özenle hazırlanmış komutlara ihtiyacı var.
 

Bu Hafta Ne Okuyalım, Ne Dinleyelim?

Toplumsal yapı ile teknolojik gelişme arasındaki çift yönlü ilişkiyi ele alan bu kitap, teknolojinin yalnızca icat edilmediğini, aynı zamanda müzakere, direnç ve yeniden yapılandırma süreçleriyle şekillendiğini savunuyor. Meselenin kültürel, politik ve sosyal dokular üzerindeki etkisini kavramak isteyenler için önemli bir metin.

Bu bölümde, OpenAI'nin etik sorumlulukları ve yapay zekanın toplumsal etkileri üzerine derinlemesine bir tartışma yer alıyor. Özellikle, OpenAI'nin araçlarının faydalarının, ahlaki maliyetlerini karşılayıp karşılamadığı konusu ele alınıyor. Bu tartışma, yapay zekanın karar alma süreçlerinin açıklanabilirliği ve kullanıcılar ile etik denetimler açısından ne anlama geldiği konularına ışık tutuyor.

Sen de Değerlendir!

0 Değerlendirme

Blog İşlemleri

KÜRE'ye Sor