Açıklanabilir Yapay Zekâ (İngilizce: Explainable Artificial Intelligence, kısaltmasıyla XAI), yapay zekâ (YZ) sistemlerinin ürettiği sonuçların ve kararların insanlar tarafından anlaşılabilir ve yorumlanabilir hâle getirilmesini amaçlayan bir dizi yöntem ve tekniktir. Özellikle derin öğrenme gibi karmaşık algoritmaların kullanıldığı durumlarda, YZ sistemlerinin karar verme süreçleri genellikle bir "kara kutu" (black box) olarak nitelendirilir. Bu sistemler, bir girdi aldığında ve bir çıktı verdiğinde, bu sonuca nasıl ulaştıklarını dışarıdan bir gözlemciye açıkça göstermezler. XAI, bu kara kutu modellerin işleyişini şeffaf kılarak, sistemlerin güvenilirliğini, hesap verebilirliğini ve kullanıcılar nezdindeki kabulünü artırmayı hedefler.
İlgili Kavramlar
Açıklanabilir Yapay Zekâ, bir modelin kararlarını ve tahminlerini, insanlar için anlaşılabilir ve denetlenebilir bir biçimde sunma yeteneği olarak tanımlanır. Bu alan, YZ sistemlerinin yalnızca ne karar verdiğini değil, bu kararı neden ve nasıl verdiğini de ortaya koyar. Literatürde XAI ile ilişkili ve zaman zaman birbirinin yerine kullanılan bazı temel kavramlar bulunmaktadır:
Anlaşılabilirlik (Understandability)
Bir modelin iç yapısını veya algoritmik işlemlerini açıklamaya gerek kalmadan, işleyişinin insanlar tarafından anlaşılır kılınması özelliğidir. Kullanıcıların, modelin genel olarak nasıl çalıştığını kavramasını amaçlar.
Yorumlanabilirlik (Interpretability)
Bir modelin anlamını veya karar mekanizmasını insanlara anlaşılır terimlerle açıklama veya sunma yeteneğidir. Bu kavram, genellikle modelin şeffaflığı ile ilişkilendirilir ve bir modelin kendi başına ne derece anlaşılır olduğunu ifade eder.
Açıklanabilirlik (Explainability)
Bir modelin iç işleyişini ve kararlarını net veya kolay anlaşılır hale getiren detayları, nedenleri veya adımları sunma eylemidir.
Şeffaflık (Transparency)
Bir model, kendi başına içsel olarak anlaşılabilir olduğunda şeffaf olarak kabul edilir. Bu, "kara kutu" bir modelin tam tersini ifade eder.
Tarihsel Gelişim ve Gereklilik
Açıklanabilir Yapay Zekâya duyulan ihtiyaç, YZ sistemlerinin karmaşıklığının ve etki alanlarının artmasıyla paralel olarak gelişmiştir. Yapay zekânın; sağlık, finans, hukuk, siber güvenlik ve otonom sistemler gibi yanlış karar verme maliyetinin yüksek olduğu, insan hayatını doğrudan etkileyen alanlarda kullanılmaya başlanması, bu sistemlerin karar süreçlerine yönelik şeffaflık ve anlaşılabilirlik taleplerini artırmıştır.
Bu gereklilik, YZ sistemlerinin adil olmayan veya hatalı sonuçlar ürettiği bazı durumlarda daha belirgin hale gelmiştir. Örneğin, ABD'de suçluların yeniden suç işleme riskini tahmin eden modellerin belirli ırklara karşı yanlı skorlar ürettiği , Amazon'un aynı gün teslimat hizmetinin belirli etnik kökene sahip mahalleleri hariç tuttuğu veya YZ tabanlı bir tıbbi görüntüleme sisteminin bir bulguyu gözden kaçırarak tedaviyi geciktirebileceği gibi durumlar, açıklanabilirlik ihtiyacını ortaya koyan örneklerdir. Bu gelişmeler, XAI üzerine yapılan akademik yayınların sayısında son yıllarda görülen artışla da doğrulanmaktadır.
Kuramsal Yaklaşımlar ve Teknikler
XAI yöntemleri, uygulama zamanına (eğitim öncesi veya sonrası), modele özgülüğüne (belirli bir model türü için mi, yoksa modelden bağımsız mı) ve açıklamanın kapsamına (tek bir karar için mi, yoksa modelin geneli için mi) göre sınıflandırılabilir.
Şeffaf Modeller (Ante-hoc Açıklanabilirlik)
Bu modeller, doğaları gereği yorumlanabilir yapıdadır. Karar ağaçları, kural tabanlı sistemler ve doğrusal regresyon gibi katsayı tabanlı modeller bu kategoriye girer. Bu modellerde, bir kararın hangi kurallara veya özellik katsayılarına dayandığı doğrudan gözlemlenebilir.
Kara Kutu Modeller için Açıklama Teknikleri (Post-hoc Açıklanabilirlik)
Bu teknikler, eğitimden sonra "kara kutu" olarak nitelendirilen karmaşık modellerin kararlarını anlaşılır kılmak için kullanılır.
Yerel Açıklamalar (Local Explanations)
Modelin tek bir tahmini nasıl yaptığına odaklanır.
LIME (Local Interpretable Model-agnostic Explanations): Modelden bağımsız bir tekniktir. Karmaşık bir modelin herhangi bir tekil tahminini açıklamak için, o tahminin yapıldığı veri noktası çevresinde yerel olarak basit ve yorumlanabilir bir model (örneğin doğrusal bir model) eğitir. Bu basit model, karmaşık modelin o noktadaki davranışını taklit ederek kararın anlaşılmasına yardımcı olur.
SHAP (SHapley Additive exPlanations): Oyun teorisindeki Shapley değerleri kavramına dayanır. Her bir özelliğin (girdi değişkeninin), modelin nihai tahminine olan katkısını adil bir şekilde paylaştırarak hesaplar. Bu sayede hangi özelliklerin tahmini ne yönde ve ne kadar etkilediği ortaya konulur. Kernel SHAP ve derin öğrenme modelleri için optimize edilmiş Deep SHAP gibi varyantları bulunmaktadır.
Genel Açıklamalar (Global Explanations)
Modelin genel davranışını anlamayı hedefler.
Özellik Önemi (Feature Importance): Rasgele orman (random forest) gibi bazı modeller, her bir özelliğin modelin genel doğruluğuna ne kadar katkı sağladığını ölçen metrikler sunar.
Görsel Açıklamalar (Visual Explanations):
Açıklama/Belirginlik Haritaları (Explanation/Saliency Maps): Özellikle görüntü verilerinde, modelin karar verirken görüntünün hangi bölgelerine odaklandığını gösteren ısı haritaları üretir. Bu haritalar, tespit edilen bir kusurun veya nesnenin hangi piksellerden dolayı tanındığını görselleştirir.
Açıklanabilirlik ve Performans İlişkisi
Genel kanı, modelin performansı (doğruluğu) ile yorumlanabilirliği arasında bir ters orantı olduğu yönündedir. Basit modeller (örn. karar ağaçları) yüksek yorumlanabilirliğe ancak daha düşük performansa sahipken, karmaşık modeller (örn. derin öğrenme) yüksek performansa ancak düşük yorumlanabilirliğe sahiptir. Bununla birlikte, bazı araştırmacılar bu genellemenin her zaman doğru olmadığını, bazı durumlarda daha basit ve yorumlanabilir modellerin de yüksek performans gösterebileceğini ve gereksiz yere karmaşık modellerin kullanılmasının zararlı olabileceğini belirtmektedir.
Uygulama Alanları
XAI teknolojileri, kararların şeffaflık gerektirdiği çok çeşitli alanlarda uygulama bulmaktadır.
Sağlık
Tıbbi görüntü analizinden hastalık teşhisine ve tedavi planlamasına kadar geniş bir yelpazede kullanılır. Örneğin, bir yapay zekâ sisteminin kanserli hücreleri nasıl tespit ettiğini , bir MR görüntüsündeki menisküs yırtığını hangi bulgulara dayanarak teşhis ettiğini veya omurga deformitelerini nasıl skorladığını açıklayarak doktorlara karar destek sağlar ve hasta güvenini artırır.
Otonom Sistemler ve Ulaşım
Otonom araçların ve demiryolu sistemlerinin güvenliğini, güvenilirliğini ve hesap verebilirliğini artırmak için kritik bir role sahiptir. Otonom bir aracın belirli bir manevrayı neden yaptığını veya demiryollarındaki bir kusurun otonom sistem tarafından neden "kusurlu" olarak etiketlendiğini açıklamak, bu sistemlerin kabulü için gereklidir.
Finans
Kredi başvurularının değerlendirilmesi, risk analizleri ve yatırım tavsiyeleri gibi alanlarda kullanılır. Bir kredi başvurusunun neden reddedildiğini açıklamak, hem yasal bir gereklilik hem de müşteri memnuniyeti için bir unsurdur.
Siber Güvenlik
Ağ trafiğindeki anomalileri tespit etme, zararlı yazılımları analiz etme, saldırı tespit sistemlerini (IDS) güçlendirme ve web uygulama zafiyetlerini keşfetme gibi amaçlarla kullanılır. Bir AYZ modeli, bir ağ aktivitesinin neden potansiyel bir saldırı olarak işaretlendiğini güvenlik uzmanına açıklayarak daha hızlı ve etkili müdahale imkânı tanır.
Hukuk
Yasal belgelerin analizi ve hukuki kararların verilmesinde YZ modellerinin şeffaflığını sağlayarak adil süreçlere katkıda bulunur.
Diğer Alanlar
Bunların yanı sıra e-ticarette ürün öneri sistemleri ve insan kaynakları alanında işe alım süreçleri gibi farklı sektörlerde de uygulamaları mevcuttur.
Hukuki ve Etik Düzenlemeler
YZ sistemlerinin yaygınlaşması, bu teknolojilerin yasal ve etik çerçevelerle düzenlenmesi ihtiyacını beraberinde getirmiştir. XAI, bu düzenlemelere uyumda merkezi bir rol oynar.
Avrupa Birliği (GDPR)
Avrupa Birliği'nin Genel Veri Koruma Tüzüğü (GDPR), bireylere, kendileri hakkında yasal veya benzeri önemli etkileri olan otomatik karar alma süreçleri hakkında anlamlı bilgi edinme hakkı tanır. GDPR'nin şeffaflık ilkesi, YZ uygulamalarında kişisel verilerin nasıl işlendiğine dair net bilgilerin sunulmasını gerektirir. Avrupa Komisyonu tarafından kurulan Yüksek Düzeyli Yapay Zekâ Uzman Grubu (AI HLEG) da "Güvenilir Yapay Zekâ" için insan gözetimi, şeffaflık ve hesap verebilirlik gibi ilkeler belirlemiştir.
Türkiye (KVKK)
Türkiye'deki 6698 sayılı Kişisel Verilerin Korunması Kanunu (KVKK), doğrudan XAI ile ilgili özel bir hüküm içermemektedir. Ancak kanunun, veri işleyenler için getirdiği şeffaflık, hesap verebilirlik ve hukuka uygunluk gibi genel ilkeler, dolaylı olarak YZ sistemlerinin açıklanabilir olmasını destekler niteliktedir.
Diğer Kurumlar
ABD Ulusal Ulaşım Güvenliği Kurulu (NTSB) gibi kurumlar, otonom araçlarda kaza sonrası soruşturmaları kolaylaştırmak için veri kaydını ve olayların açıklanmasını sağlayacak sistemlerin gerekliliğini vurgulamıştır.