logologo
BlogGeçmiş
Blog
Avatar
Ana YazarKÜME Vakfı18 Nisan 2025 11:40

#7 Toplum ve Teknoloji Bülteni

fav gif
Kaydet
viki star outline

 

Yapay zeka sesinizi çaldığında 

İnsan sesi başka hiçbir canlı tarafından ikame olunmayan biricikliğini kaybetmeye başladı. Sesimiz, neredeyse gerçeğinden ayırt edilemeyecek şekilde artık taklit edilebiliyor. Consumer Reports tarafından yapılan yakın tarihli bir araştırma, önde gelen yapay zeka modellerinin insanların seslerinin onların bilgisi ve rızası olmadan klonlanmasına karşı neredeyse hiçbir koruma sunmadığını ortaya koyuyor.
 

Günlük hayatta sesimizi neredeyse hiç esirgemeden kullanırız. Konuşma en temel hasletlerimizden birisi olması hasebiyle bütün kamusallığımızın temsili olarak da kodlanır. Modern dönemde ise ses bir çok şekilde kayıt altına alınıyor ve işleniyor. Örneğin, müşteri hizmetleriyle yaptığımız görüşmeler ‘hizmet kalitesini artırmak maksadıyla’ kayıt altına alınıyor. Dijital asistanlar sesimize giderek artan oranda maruz kalıyor. Sosyal medyada sesli veya görüntülü paylaşımlar yapılırken de ötesi pek düşünülmüyor. 
 

Oysa sesimiz yalnızca bir iletişim aracı olmaktan ziyade kişisel kimliğimizin ayrılmaz bir parçasıdır. Yapıp etmelerimiz, buyruklarımız, fikirlerimiz, önerilerimiz gibi pek çok varoluş parçamızı ses düzeyinde dışsallaştırırız. Sesin kullanımı bir çeşit varoluş biçimimizin sergilenmesidir.


Son yıllarda ses klonlama teknolojisi, yalnızca birkaç saniyelik bir ses örneğiyle çalışan, yapay zeka destekli sistemler sayesinde mümkün hale gelmiş durumda. Bir zamanlar bilim kurgu olarak görülen bu teknoloji, artık pazarlama sektöründen siyasal propagandaya kadar birçok alanda kullanımda. Geçtiğimiz yıl ABD’de Demokratların ön seçim sürecide kullanılan sahte bir Joe Biden sesi ile insanlar oy vermekten men edilmeye çalışılması bu teknolojinin suistimalini gözler önüne sermekte.
 

Bugün pek çok yerde ses klonlama teknolojisini kullanmak için özel bir izin ya da sertifikaya gerek yok. Açık kaynaklı modellerle ya da bazı ticari uygulamalarla, herhangi biri bir sosyal medya videosunu alıp, o kişinin sesini dakikalar içinde sentetik bir konuşmaya dönüştürmek, o sese istenen şeyleri söyletmek mümkün. Bunun bir parodi, bir sanat eseri ya da bir dolandırıcılık eylemi olup olmadığını ayıracak bir yasal çerçeve de yok denecek kadar az. Böylece ses güvenliği şirketlerin insafına, kullanıcıların da ferasetine kalmış durumda.


Mahremiyetin Yeni Tanımı

Bu durumda ortaya ciddi bir mahremiyet ve otantiklik krizi çıkıyor. Bireyin sesini klonlamak, onun yerine konuşmak, onu temsil etmek, onun nüfuzunu araçsallaştırmak ve anlamına gelebiliyor. Bu noktada sormamız gereken temel soru mahremiyet yalnızca fiziksel mesafe ihlali olup olmadığı oluyor. Yapay zekanın sunduğu imkanlar böylesine gelişmişken sesimizi verdiğimiz her ortam, aynı zamanda mahremiyetimizi de teslim ettiğimiz bir zemin.
 

Sorunu Teknolojiyle Çözmek

Mahremiyet krizlerini ortadan kaldırmak için teknoloji dünyasında sıkça başvurulan bir refleks ise sorunu doğuran teknolojiyi, yine teknolojiyle çözmek. Gelişmekte olan bazı sistemler, ses dosyalarına dijital otantiklik damgaları(watermark) ekleyerek, bir sesin orijinal mi yoksa yapay üretim mi olduğunu tespit etmeyi hedefliyor. Tıpkı sahte parayı ayırt etmek için kullanılan güvenlik işaretleri gibi, bu tür görünmeyen imzalar yapay seslerin tespiti için kullanılabilir hale getirilmeye çalışılıyor.
 

Daha ileri bir öneri ise blockchain teknolojisinin ses kimlikleriyle ilişkilendirilmesi. Bu sistemde, kişinin sesine ait benzersiz bir “parmak izi”, dağıtık bir defter sistemine kaydediliyor ve her ses üretimi bu kayıtla karşılaştırılarak doğrulanabiliyor. Bu yöntem, bir tür dijital özlük alanı açıyor: Sesin kimden çıktığını şifreli, kamusal ve değiştirilemez biçimde belgelemek.
 

Bu yaklaşımın cazibesi, güveni yeniden inşa etme vaadinde yatıyor. Ama bir yandan da şunu sormadan edemiyoruz: Mahremiyetin çözümünü, daha fazla izlenebilirlikte mi aramalıyız? Güvenliği sağlama adına daha fazla gözetimi mi meşrulaştırıyoruz? Sesin gerçekten sahibine ait olduğunu belgelemek, sesin bizatihi özgürce var olma niteliğini kısıtlayan yeni bir düzene mi yol açar? Bu yol insanın veri sahibi bir varlık olarak tanımlandığı bir dünyanın altyapısını inşa etmekte. Güvenliği teknolojiye devrettiğimiz ölçüde, güveni failin niyetine değil, izlenebilirliğine bağlamış oluruz.
 

Her Ses Sahte Olabilir

Bir diğer refleks ise hiçbir sese inanmamak.

Siber güvenlik dünyasında “Zero Trust” adı verilen ilkede olduğu gibi hiçbir kullanıcıya, hiçbir cihaza, hiçbir erişim talebine peşinen güven duyulmamalı; her şey için sürekli teyit istenmelidir. Eğer sesin sahte olabileceği ihtimalini sürekli aklımızda taşırsak, bu daha dikkatli bireyler olmamıza ek olarak daha şüpheci, daha yalnız, daha duygusal olarak yalıtılmış olmamıza da yol açabilir. Her sese temkinle yaklaşmak, toplumsal hayatı mümkün kılan asgari güveni yıkar mı?.
 

Peki böyle bir dünyada yaşamak ister miyiz? Her videonun sahte, her sesin yapay, her bilginin manipüle edilebilir olduğunu varsaydığımız bir toplumda, kamusal iletişim, duygusal temas ve sahici tartışma ne kadar mümkün?


Yapay Zeka ve Enerji

Yapay zekanın yükselişiyle birlikte dijital veri merkezleri bir zamanların demir-çelik fabrikaları gibi enerji devlerine dönüştü. Uluslararası Enerji Ajansı’nın (IEA) 2025 tarihli raporuna göre, yalnızca veri merkezlerinin elektrik talebi 2030’a kadar dört katına çıkacak. Tahminler bu talebin Japonya’nın yıllık enerji tüketimini aşacağı yönünde. 
 

Bu durum, yapay zekanın “görünmeyen bedeni” olarak yorumlanabilir. Özellikle büyük dil modelleri, görüntü işleme sistemleri ve otonom araç algoritmaları için yapılan her işlem, bir sunucu rafında ciddi miktarda enerji gerektiriyor. Her “sanal” komutun arkasında fiziksel bir enerji tüketimi var.
 

Yapay zeka rekabeti uzun süredir algoritmik üstünlük, veri miktarı ve model kapasitesi üzerinden tanımlansa da, bu çerçeve artık eksik kalmakta. Büyük dil modelleri, görüntü işleme sistemleri ve otonom karar alma ağları gibi yüksek işlem gücü gerektiren yapay zeka uygulamaları, yalnızca bilişsel değil, aynı zamanda fiziksel kaynaklar da talep etmektedir. 
 

Giderek daha da belirleyici hale gelen bir unsur: enerji. Yapay zeka alanındaki ilerlemeler artan ölçüde enerji altyapılarına bağımlı hale gelmiş durumda.  Bu durum da yapay zeka yarışını salt teknik bir mücadele olmaktan çıkararak, jeopolitik ve ekolojik boyutları olan kapsamlı bir enerji rekabetine dönüştürüyor.
 

ABD, Avrupa ve Çin arasındaki YZ yarışında sadece algoritmalar değil, onları besleyecek enerji kaynakları da stratejik bir unsur haline geliyor. ABD’nin veri merkezi altyapısını sürdürmek için elektrik şebekesini %20 oranında büyütmesi gerektiği biliniyor. OpenAI, Oracle ve SoftBank ortaklığında yürütülen Stargate projesi bu tür büyümenin habercisi. Öte yandan Fransa da nükleer enerji altyapısını YZ stratejisinin ana taşıyıcısı olarak sunuyor. 
 

Geçmişte olduğu gibi bugün de enerji küresel güç yarışında stratejik ve belirleyici rolünü sürdürüyor. Enerji arzı krizi klasik jeopolitik bir hesaplaşma getirir mi, göreceğiz.
 

Yavaşlamalı mıyız? Yapay zekanın 'Oppenheimer anı'

Silahsızlanma uzmanları, aktivistler ve büyük teknoloji şirketlerinin bazı temsilcileri, yapay zeka yarışının baş döndürücü hızına karşı bir tür “etik frene” basılması gerektiğini dile getiriyor. Cenevre’de UNIDIR (Birleşmiş Milletler Silahsızlanma Araştırmaları Enstitüsü) tarafından düzenlenen YZ Güvenliği ve Etiği Konferansı’nda bu çağrı daha da berraklaştı: Yapay zeka, Oppenheimer anına yaklaşıyor.
 

Robert Oppenheimer’ın atom bombasının geliştirilmesindeki rolü ve ardından gelen pişmanlığı, teknolojik dehanın ahlaki sınır tanımadığında nasıl bir yıkıma yol açabileceğini gösteren tarihsel bir kırılmadır. Yapay zeka için yapılan “Oppenheimer anı” benzetmesi, bugün benzer bir yol ayrımında olduğumuzu imliyor: Teknolojik mümkün olanla ahlaki meşru olan arasındaki mesafenin açıldığı bir eşik.


UNIDIR yetkilileri, özellikle otonom silah sistemleri gibi YZ güdümlü askeri teknolojilerin insan haklarına, uluslararası hukuka ve savaş etiğine uygun biçimde sınırlandırılması gerektiğini vurguluyor zira, denetimsiz yapay zeka, gayriinsani kararlar alabilir.
 

Yapay zeka rekabetinde Avrupa’nın duruşu bu bağlamda dikkat çekici bir örnek oluşturuyor. Avrupa’daki düşünsel mirasın etkisiyle ortaya çıkan normatif düşünme geleneği” bazen teknolojik ivmeyi yavaşlatmak pahasına da olsa yön belirlemeye çalışıyor.
 

Bu durum Avrupa için ciddi karar anlarını da beraberinde getiriyor. Özellikle yapay zekanın askeri uygulamalardaki rolü karşısında Avrupa’nın yaşadığı ikilem belirgin: Bir yandan otonom silah sistemlerinin ahlaki risklerine karşı çıkılıyor, diğer yandan ABD, Çin ve Hindistan gibi aktörlerin bu alanda hızla ilerlemesi, Avrupa’nın ulusal güvenliği ve stratejik kapasitesi açısından atıl kalma riski yaratıyor.


Burada bir karar paradoksu doğuyor:

  • Ya teknolojik gelişmeyi etik kaygılarla yavaşlatacak,

  • Ya da etik kaygıları ikinci plana atarak askeri üstünlük mücadelesine girişilecek

Bu yalnız devletlerin değil bireysel olarak insanların da karşılaştığı epistemolojik bir açmaz.

Sen de Değerlendir!

0 Değerlendirme

Blog İşlemleri

KÜRE'ye Sor