logologo
Ai badge logo

Bu madde yapay zeka desteği ile üretilmiştir.

Avrupa Yapay Zekâ Yasası (AI Act)

Hukuk+2 Daha
fav gif
Kaydet
viki star outline

Avrupa Yapay Zekâ Yasası (AI Act), yapay zekâ konusunda dünya çapında ilk kapsamlı yasal çerçeve olarak kabul edilen Regulation (EU) 2024/1689 sayılı düzenlemedir. Bu yasa, Avrupa Birliği'nde güvenilir yapay zekâ gelişimini teşvik etmeyi amaçlamakta ve yapay zekâ geliştiricileri ile kullanıcıları için risk tabanlı kurallar bütünü sunmaktadır.


AI Act, Avrupa Birliği'nde yapay zekâ sistemlerinin geliştirilmesi, piyasaya sürülmesi, hizmete alınması ve kullanımı için kurallar belirleyen yasal bağlayıcı bir araçtır. Yasa, yapay zekâ teknolojilerinin potansiyel risklerini kategorize ederek, her risk seviyesi için farklı yükümlülükler ve gereksinimler öngörmektedir. Bu düzenleme, yapay zekânın güvenli, şeffaf ve sürdürülebilir bir şekilde geliştirilmesini sağlamak amacıyla oluşturulmuş olup, Avrupa'nın dijital dönüşüm stratejisinin kilit bir bileşenini oluşturmaktadır.

Tarihçe

Gelişim Süreci

Avrupa Birliği'nin yapay zekâ düzenlemesi oluşturma çalışmaları, dijital ekonomilerin ve yapay zekânın yükselişine yönelik siyasi değerlendirme eksikliği ve kamu tartışması yetersizliğinin fark edilmesiyle başlamıştır. Yapay zekâ politikası, inovasyonu ve uygulamaları hızlı bir şekilde ilerlerken, şirketler ürünlerini geliştirmek ve çok çeşitli sektörlerde yeni inovasyonları teşvik etmek için daha büyük veri setlerini kullanmaya başlamıştır.


AB'nin yapay zekâ düzenlemesi oluşturma çalışmaları 2018 yılında başlamış ve bu süreç boyunca çok sayıda paydaşın görüşü alınmıştır. İlk olarak 2019 yılında "Güvenilir Yapay Zekâ için Etik Rehberi" yayımlanmış, ardından 2020 yılında "Yapay Zekâ Beyaz Kitabı" ile düzenleme yaklaşımı şekillendirilmiştir. 2021 yılının Nisan ayında Avrupa Komisyonu tarafından ilk taslak önerilmiş ve kapsamlı müzakere sürecine girilmiştir.

Kabul ve Yürürlük Süreci

AI Act, 21 Mayıs 2024'te AB Konseyi tarafından onaylanmış ve 12 Temmuz 2024'te Resmi Gazete'de yayımlanmasından 20 gün sonra 1 Ağustos 2024'te yürürlüğe girmiştir. AB AI Act'ın nihai versiyonu, 12 Temmuz 2024'te Avrupa Birliği Resmi Gazetesi'nde (OJ) yayımlanmıştır.


Haziran 2024'te AB, yapay zekâ konusunda dünyanın ilk kurallarını kabul etmiş ve Yapay Zekâ Yasası yürürlüğe girdikten 24 ay sonra tam olarak uygulanabilir hale gelecektir. Ancak bazı kısımlar daha erken uygulanmaya başlamıştır; kabul edilemez risk oluşturan yapay zekâ sistemlerinin yasaklanması 2 Şubat 2025'te uygulanmaya başlamıştır. Yüksek riskli yapay zekâ sistemleri için tam uyumluluk gereksinimleri ise 2 Ağustos 2026'da yürürlüğe girecektir.

Risk Tabanlı Yaklaşım

Risk Kategorilendirmesi

AB yapay zekâ politikası, teknolojiyi hem fırsat hem de tehdit olarak değerlendirmekte ve bu problemli durumlar, farklı yapay zekâ tasavvurlarının uyumlu hale gelmesini sağlayan AI Act'ın risk tabanlı kategorileştirmeleri gibi spesifik bir politika yanıtı gerektirmektedir.


AI Act, yapay zekâ sistemlerini risk seviyelerine göre dört ana kategoriye ayırmaktadır: kabul edilemez risk, yüksek risk, sınırlı risk ve minimal risk. Bu kategorileştirme, her risk seviyesi için farklı yükümlülükler ve gereksinimler öngörmektedir.

Yasaklı Uygulamalar

Kabul edilemez risk kategorisindeki yapay zekâ uygulamaları tamamen yasaklanmıştır. Bu kategori altında, bilinçaltı teknikler kullanan sistemler ve kişilere veya başkalarına zarar verme olasılığı yüksek olan sistemler yer almaktadır. Yasaklı uygulamalar arasında biometrik sınıflandırma sistemleri, duygusal durum tanıma sistemleri ve sosyal skorlama uygulamaları bulunmaktadır.

Yüksek Riskli Sistemler

Yüksek risk kategorisinde yer alan yapay zekâ sistemleri, kritik altyapı, eğitim, istihdam, kredi değerlendirmesi, adalet ve hukuk uygulama gibi sektörlerde kullanılan sistemlerdir. Bu sistemler için kapsamlı uyumluluk gereksinimleri, kalite yönetim sistemleri, risk değerlendirmesi ve azaltma prosedürleri, veri ve veri yönetimi gereksinimleri ile şeffaflık ve kullanıcı bilgilendirme yükümlülükleri öngörülmüştür.

Uygulama Mekanizmaları

Uyumluluk Değerlendirmesi

AI Act, yüksek riskli yapay zekâ sistemleri için iki farklı uyumluluk değerlendirme seçeneği sunmaktadır: dahili değerlendirme veya onaylanmış üçüncü taraf kuruluşu aracılığıyla değerlendirme. Yüksek riskli yapay zekâ sistemleri için, resmi olarak kabul edilmiş uyumlaştırılmış standartlara uygunluk durumunda uygunluk karinesi bulunmaktadır.


Uyumluluk değerlendirme süreci, teknik dokümantasyon hazırlığı, kalite yönetim sisteminin kurulması, risk değerlendirmesi ve azaltma önlemlerinin alınması aşamalarını içermektedir. Sağlayıcılar, yüksek riskli yapay zekâ sistemlerini Avrupa pazarına sürmeden veya AB'de hizmete almadan önce uyumluluk değerlendirme prosedürünü tamamlamalıdır.

Düzenleyici Sandbox'lar

AI Act'ın uygulanmasının önemli bir parçası olan yapay zekâ düzenleyici sandbox'ları, AI Act'ın 57. maddesi uyarınca her Üye Devlet'in 2 Ağustos 2026'ya kadar ulusal düzeyde en az bir yapay zekâ düzenleyici sandbox'ı kurması gerekmektedir. Bu sandbox'lar, AI Act'ın uygulanmasının önemli bir parçasını oluşturmaktadır. Düzenleyici sandbox'lar, yenilikçi yapay zekâ sistemlerinin kontrollü bir ortamda test edilmesine olanak tanımakta ve düzenleyici uyumluluğun sağlanmasında pratik deneyim kazanılmasına yardımcı olmaktadır.

Genel Amaçlı Yapay Zekâ Modelleri

AI Act, genel amaçlı yapay zekâ modellerini (GPAI) özel olarak düzenlemektedir. Bu modeller, büyük miktarda veri ile eğitilmiş ve çok çeşitli görevlerde kullanılabilen sistemlerdir. Büyük ölçekli GPAI modelleri için özel yükümlülükler ve değerlendirme kriterleri belirlenmiştir.

Deepfake Düzenlemeleri

AI Act kapsamında, deepfake oluşturan yapay zekâ sistemlerini kullanan dağıtıcılar, içeriğin yapay olarak yaratıldığını veya manipüle edildiğini açıkça belirtmek zorundadır ve yapay zekâ çıktısını bu şekilde etiketleyerek yapay kökenini açıklamalıdır. Bu düzenleme, dijital içerik güvenliği ve dezenformasyon ile mücadele açısından kritik öneme sahiptir.

Yönetişim Yapısı

Avrupa Yapay Zekâ Ofisi

Avrupa Yapay Zekâ Ofisi ve ulusal piyasa gözetim otoriteleri AI Act'ın uygulanması, denetlenmesi ve yaptırım uygulanmasından sorumludur. Avrupa Yapay Zekâ Ofisi, genel amaçlı yapay zekâ modelleri için kuralları uygulama yetkisine sahiptir ve değerlendirmeler yapma dahil olmak üzere AI Act tarafından Komisyon'a verilen yetkilerle desteklenmektedir.

Danışma Organları

AI Act'ın yönetişimi üç danışma organı tarafından yönlendirilmektedir: AB Üye Devletlerinin temsilcilerinden oluşan Avrupa Yapay Zekâ Kurulu, yapay zekâ alanında bağımsız uzmanlardan oluşan Bilimsel Panel ve ticari ve ticari olmayan paydaşların çeşitli bir seçkisini temsil eden Danışma Forumu. Bu çok paydaşlı yönetişim, AI Act'ın uygulanmasında dengeli bir yaklaşım sağlamaktadır.

Üye Devlet Sorumlulukları

Ulusal düzeyde, AI Act her üye devletin AI Act'ı uygulamak için en az bir bildirim otoritesi ve en az bir piyasa gözetim otoritesi bulundurması gerektiğini şart koşmaktadır. Her üye devlet ayrıca ulusal düzeyde en az bir yapay zekâ düzenleyici sandbox'ı kurmalıdır.

Sektörel Etkiler

Sağlık Sektörü

2024 yılının Ağustos ayında yürürlüğe giren AB Yapay Zekâ Yasası, sağlık hizmetleri için önemli etkilere sahiptir. Sağlık sektöründe kullanılan birçok yapay zekâ sistemi yüksek risk kategorisinde değerlendirilmekte ve bu durum sektördeki şirketler için özel uyum gereksinimleri yaratmaktadır. Tıbbi görüntüleme, tanı destek sistemleri ve hasta izleme teknolojileri gibi alanlar bu kapsamda yer almaktadır.

Finansal Hizmetler

Finansal sektörde kredi skorlama, risk değerlendirmesi ve algoritmik ticaret gibi uygulamalar AI Act kapsamında düzenlenmektedir. Bankacılık ve sigorta sektörlerinde kullanılan yapay zekâ sistemleri için şeffaflık ve açıklanabilirlik gereksinimleri özel önem taşımaktadır.

İnsan Kaynakları ve İstihdam

İşe alım süreçlerinde kullanılan yapay zekâ sistemleri, performans değerlendirmesi ve çalışan izleme teknolojileri AI Act kapsamında yüksek riskli sistem olarak kabul edilmektedir. Bu alanda faaliyet gösteren şirketler için kapsamlı uyumluluk gereksinimleri bulunmaktadır.


Avrupa Birliği'nin Yapay Zekâ Teknolojilerini Düzenlemek İçin Geliştirdiği Kapsamlı Yasal Çerçeve. (Yapay Zeka Tarafından Oluşturuldu)

Avantajlar

AI Act'ın temel avantajları arasında yapay zekâ teknolojilerinin güvenli ve sorumlu gelişimini sağlaması, tüketicilerin haklarını koruma altına alması ve Avrupa'da güvenilir yapay zekâ ekosisteminin oluşturulmasına katkıda bulunması yer almaktadır. Bu düzenleme, yapay zekâ uygulamalarının etik ve sorumlu bir şekilde kullanılmasını sağlamak için değerlendirme yapmakta ve AB'nin tek pazarında güvenli ve yasal yapay zekâ gelişimini teşvik etmektedir.


Yasa aynı zamanda küresel yapay zekâ normlarını etkileme potansiyeline sahiptir ve diğer ülkelerin benzer düzenlemeler geliştirmesi için bir model oluşturmaktadır. Risk tabanlı yaklaşım, inovasyonu engellemeden güvenlik sağlamaya odaklanmakta ve teknolojik gelişmelere uyum sağlayabilecek esnek bir çerçeve sunmaktadır.


Uyumlaştırılmış standartlar sayesinde, AB pazarında faaliyet gösteren şirketler için tek bir düzenleyici çerçeve oluşturulması, uyum maliyetlerini azaltmakta ve pazar erişimini kolaylaştırmaktadır. Ayrıca, tüketicilerin yapay zekâ sistemlerine olan güvenini artırarak, bu teknolojilerin yaygın kabulünü desteklemektedir.

Dezavantajlar

AI Act'ın potansiyel dezavantajları arasında uyum maliyetlerinin yüksek olması, özellikle küçük ve orta ölçekli işletmeler için finansal yük oluşturması yer almaktadır. Ayrıca, düzenleme süreçlerinin karmaşıklığı ve teknik gereksinimlerin anlaşılması konusunda zorluklar yaşanabilmektedir. Uyumluluk değerlendirme süreçleri zaman alıcı olabilmekte ve yenilikçi ürünlerin pazara çıkış süresini uzatabilmektedir.


Düzenlemeler, münhasıran askeri, savunma veya ulusal güvenlik amaçları için kullanılan sistemlere uygulanmamakta ve sistemleri piyasaya sürmeden veya hizmete almadan önce yapılan araştırma, test veya geliştirme faaliyetlerine de uygulanmamaktadır. Bu istisnaların varlığı, yasanın kapsamında boşluklar yaratabileceği endişelerini beraberinde getirmektedir.


Teknoloji şirketleri için bürokrasi yükünün artması, özellikle startup'lar ve yenilikçi işletmeler için rekabet dezavantajı yaratabilir. Ayrıca, hızla gelişen yapay zekâ teknolojilerine karşı yasal çerçevenin uyum hızının yetersiz kalma riski bulunmaktadır. Farklı AB üye devletlerinde uygulama farklılıklarının ortaya çıkması, tek pazarın bütünlüğünü tehdit edebilir.

Küresel Etkileri

Avrupa'nın yapay zekâ düzenlemeleri oluşturma girişimlerinin değerlendirilmesi, bunun küresel normları nasıl etkileyeceği konusunda önemli sorular ortaya çıkarmaktadır. AI Act, dünya çapında yapay zekâ düzenlemelerinin şekillenmesinde öncü rol oynaması beklenen bir düzenleme olarak kabul edilmektedir.


AB'nin "Brüksel Etkisi" olarak bilinen düzenleyici etkisinin yapay zekâ alanında da kendini göstermesi beklenmektedir. Büyük teknoloji şirketlerinin AB pazarına erişebilmek için AI Act gereksinimlerine uyum sağlaması, bu standartların küresel olarak benimsenmesine yol açabilir. Birçok ülke, kendi yapay zekâ düzenlemelerini geliştirirken AI Act'ı referans alarak benzer yaklaşımlar benimsemektedir.


Uluslararası ticaret açısından, AI Act uyumlu olmayan sistemlerin AB pazarından dışlanması, küresel tedarik zincirlerini ve işbirliği modellerini etkileyebilir. Bu durum, özellikle gelişmekte olan ülkelerdeki teknoloji şirketleri için hem fırsat hem de zorluk yaratmaktadır. Aynı zamanda, AB'nin dijital diplomasi stratejisinin bir parçası olarak, AI Act küresel yapay zekâ yönetişiminde AB'nin liderlik rolünü pekiştirmektedir.

Kaynakça

European Commission. "AI Act enters into force". (2024). Erişim Tarihi: 29 Haziran 2025. Erişim Adresi.

European Union. "AI Act". Erişim Tarihi: 29 Haziran 2025. Erişim Adresi.

European Parliament. "EU AI Act: first regulation on artificial intelligence". (2023). Erişim Tarihi: 29 Haziran 2025. Erişim Adresi.


EU Artificial Intelligence Act. "The EU Artificial Intelligence Act -  Up-to-date developments and analyses of the EU AI Act.". Erişim Tarihi: 29 Haziran 2025. Erişim Adresi.


Kusche, Isabel. "Possible harms of artificial intelligence and the EU AI act: fundamental rights and risk." Journal of Risk Research (2024): 1-14. Erişim Adresi.

Sen de Değerlendir!

0 Değerlendirme

Yazar Bilgileri

Avatar
Ana YazarEbrar Sıla Peri29 Haziran 2025 18:21
KÜRE'ye Sor