Yapay zeka sistemleri, özellikle derin öğrenme gibi karmaşık algoritmalar kullandığında, karar verme süreçlerinin anlaşılması zor hale geliyor. Bu tür modeller, büyük veri setleri üzerinden eğitilerek tahminler veya kararlar üretir, ancak hangi girdilerin hangi çıktılara nasıl etki ettiği genellikle belirsizdir. Bu durum, kullanıcılar ve geliştiriciler için büyük bir sorun teşkil eder çünkü:
- Güven Eksikliği: Kullanıcılar, neden belirli bir sonuca ulaşıldığını anlayamadıklarında, sisteme olan güvenleri azalır.
- Hata Tespiti ve Düzeltme: Modelin iç işleyişi anlaşılmaz olduğunda, hataları tespit etmek ve düzeltmek zorlaşır.
İşte bu noktada Explainable AI (XAI) devreye giriyor. Explainable AI (XAI), yapay zeka ve makine öğrenimi modellerinin kullanıcılar ve geliştiriciler tarafından anlaşılabilir ve yorumlanabilir olmasını sağlamak için kullanılan yöntem ve tekniklerin bütünüdür. Bu, yapay zeka sistemlerinin kararlarını şeffaf bir şekilde açıklayabilme yeteneğini ifade eder. XAI’nin sunduğu başlıca çözümler şunlardır:
Mannequin Tabanlı Yöntemler: Karar ağaçları ve kural tabanlı sistemler gibi yapılar, karar süreçlerini görselleştirerek kullanıcıların anlamasını kolaylaştırır.
Publish-Hoc Analizler: Mannequin eğitildikten sonra yapılan analizlerle, hangi girdilerin nasıl etki ettiğini açıklayan yöntemlerdir. Örneğin, LIME ve SHAP teknikleri, modelin kararlarını detaylı bir şekilde açıklar.
Doğal Dil İşleme: AI modellerinin kararlarını insan diliyle ifade edebilen sistemler, kullanıcıların modellerin karar süreçlerini anlamalarına yardımcı olur.
Bu yazıda, Explainable AI (XAI) kapsamında SHAP (SHapley Additive exPlanations) yöntemini kullanarak yapay zekanın nasıl anlaşılabilir hale getirildiğini inceleyeceğiz. SHAP, yapay zeka modellerinin karmaşık karar verme süreçlerini açıklayarak, bu süreçlerin daha şeffaf ve anlaşılır olmasını sağlar. Bu yöntem sayesinde, kullanıcılar ve geliştiriciler, yapay zekanın hangi faktörleri dikkate alarak belirli sonuçlara ulaştığını daha iyi anlayabilirler.
10.000 makineye ait verilerden (Air Temperature, Course of Temperature, Rotational Pace, Torque, Instrument Put on) oluşan bir veri seti hazırlanmış ve bu veriler XGBoost algoritması kullanılarak eğitilmiştir. Elde edilen yapay zeka modelinin karar verme sürecinin anlaşılabilir olması için SHAP (SHapley Additive exPlanations) yöntemi kullanılmıştır.
SHAP (SHapley Additive exPlanations), makine öğrenimi modellerinin tahminlerini açıklamak için kullanılan bir yöntemdir. Temel amacı, bir modelin belirli bir tahmin yapması için her özniteliğin katkısını ölçmek ve bu katkıları anlamak için bir açıklama sağlamaktır. Bu yazıda, SHAP’ın sunduğu görselleştirme tekniklerini ve modellerin tahminlerini nasıl açıkladığını ele alacağız:
- Bar grafik ile görselleştirme
- Yerel bar grafik ile görselleştirme
- Beeswarm (arı sıcak) grafik ile görselleştirme
- Waterfall (şelale) grafik ile görselleştirme
- Bağımlılık dağılım grafik ile görselleştirme
Bu görselleştirme araçları, modelin karar verme süreçlerini daha şeffaf hale getirir ve kullanıcıların modeli daha iyi anlamasına yardımcı olur.
1.1. Bar grafik ile görselleştirme
Bu görselleştirme yöntemi, modelin tahminlerine katkıda bulunan özelliklerin görsel olarak temsil edilmesini sağlar. Her bir çubuk, bir özelliğin modelin çıktısındaki etkisini belirtir. Bu grafik, özelliklerin küresel önemini gösteren bir önem grafiği oluşturur. Bu önem grafiği, her özelliğin ortalama mutlak değerini temel alarak oluşturulur, böylece her bir özelliğin modelin genel performansındaki katkısını belirler.
Örneğin, Instrument put on özelliği en yüksek katkıyı sağlarken, Course of temperature özelliği en düşük katkıyı sağlamıştır. Bu bilgi, modelin belirli özelliklere ne ölçüde odaklandığını ve hangi özelliklerin tahminlerde daha belirleyici olduğunu anlamamıza yardımcı olur.
1.2. Yerel bar grafik ile görselleştirme
Bu grafik, yerel bir özellik önem grafiği oluşturur; burada her bir çubuk, her özelliğin SHAP (SHapley Additive exPlanations) değerlerini temsil eder. SHAP değerleri, bir özelliğin belirli bir örneğe olan katkısını gösterir. Özellik değerleri, her bir özelliğin adının sol tarafında gri renkte gösterilir.
Grafikte, özelliklerin SHAP değerlerini ve katkılarını gözlemliyoruz, bu değerler shap_values[0] içinde bulunur. Pozitif SHAP değerleri, ilgili özelliğin tahmini artırıcı bir etkiye sahip olduğunu, negatif SHAP değerleri ise tahmini azaltıcı bir etkiye sahip olduğunu gösterir. Bu bilgi, belirli bir örnek için modelin tahmin sürecini daha iyi anlamamıza ve her bir özelliğin tahmin üzerindeki etkisini değerlendirmemize yardımcı olur.
1.3. Beeswarm (arı sıcak) grafik ile görselleştirme
Beeswarm grafiği, bir veri kümesindeki en önemli özelliklerin modelin çıktısını nasıl etkilediğine dair yoğun bilgi içeren bir özet sunmak amacıyla tasarlanmıştır. Her bir açıklamanın her örneği, her özelliğin akışında tek bir nokta ile temsil edilir. Noktanın konumu, özelliğin SHAP (SHapley Additive exPlanations) değerine göre belirlenirken, rengi ise özelliğin orijinal değerine göre değişir.
- Özellikler, mannequin üzerindeki etkilerine göre sıralanmıştır. En büyük etkiyi Instrument put on, en az etkiyi ise Course of temperature göstermiştir.
- X eksenindeki pozitif SHAP değerlerine sahip noktalar, ilgili özelliğin tahmini artırıcı yönde etkilediğini gösterirken, negatif SHAP değerlerine sahip noktalar ise tahmini azaltıcı yönde etkiler.
- Renk skalasına bakarak, yüksek veya düşük değerlerin mannequin tahminini nasıl etkilediğini görebiliriz. Örneğin, bir özellik için kırmızı noktaların çoğunlukla pozitif SHAP değerlerine sahip olması, o özelliğin yüksek değerlerinin tahmini artırıcı yönde etkilediğini gösterir. Bu grafik, modelin her bir özelliğin tahmin üzerindeki etkisini daha ayrıntılı bir şekilde analiz etmemize ve modelin karar mekanizmalarını daha iyi anlamamıza yardımcı olur.
Beeswarm grafiğini violet plot ve layered violet plot olarak da gösterebiliriz. Yorumlaması aynı şekilde yapılmaktadır.
1.4. Waterfall (şelale) grafik ile görselleştirme
Waterfall (Şelale) grafikleri, bireysel tahminlere ilişkin açıklamaları görüntülemek üzere tasarlanmıştır; bu nedenle, girdi olarak bir Açıklama nesnesinin tek bir satırının olmasını beklerler. Grafik, mannequin çıktısının beklenen değeri olarak başlar ve ardından her satır, her bir özelliğin pozitif (kırmızı) veya negatif (mavi) katkısının, değeri beklenen mannequin çıktısından arka plan veri kümesi üzerinden nasıl mannequin çıktısına taşıdığını gösterir.
Bu çalışmada, beş farklı veri noktası için waterfall grafiği oluşturulmuştur. Her bir bar, bir özelliğin katkısını temsil eder. Barlar pozitif (tahmini artırıcı) veya negatif (tahmini azaltıcı) olabilir. Örneğin, ilk grafik için ilk 4 özellik tahmini arttırırken, Course of temperature değeri tahmini azaltıcı bir katkı sağlamıştır. Bu grafik, her bir özelliğin tahmin üzerindeki internet etkisini görselleştirirken, modelin karar sürecini daha ayrıntılı bir şekilde anlamamıza yardımcı olur.
1.5. Bağımlılık dağılım grafik ile görselleştirme
Bağımlılık dağılım grafiği, tek bir özelliğin mannequin tarafından yapılan tahminler üzerindeki etkisini gösterir. Bu grafiklerde, özelliklere ait SHAP (SHapley Additive exPlanations) değerlerinin dağılımı gösterilir.
Bu grafikler, bir özelliğin değişken değerlerine göre tahminlerin nasıl değiştiğini görselleştirir. Her bir nokta, belirli bir örneğin özellik değerlerine karşılık gelen SHAP değerini temsil eder. Bu şekilde, özellik değerlerinin modelin tahminlerine nasıl katkıda bulunduğunu ve bu katkının dağılımını görebiliriz. Bu grafikler, belirli bir özelliğin modelin çıktısındaki etkisini daha ayrıntılı bir şekilde anlamamıza yardımcı olur.
Aşağıdaki dağılım grafiklerinde ise, bir özelliğin diğer özelliklerle etkileşimini göstermek için kullanılır. Her bir grafikte, belirli bir özelliğin diğer bir özellikle olan etkileşimini görselleştirir. Bu grafikler, özellikler arasındaki ilişkinin karmaşıklığını anlamamıza yardımcı olur. Bu sayede, modelin tahminlerini etkileyen özellikler arasındaki etkileşimleri daha iyi anlayabiliriz.
Instrument put on grafiğini incelediğimizde, en belirgin etkileşimlerden biri Instrument put on özelliği ile Torque özelliği arasındadır. “Torque” özelliğinin “Instrument put on” özelliği ile nasıl ilişkili olduğunu gözlemlemek için bu grafiği kullanırız.
- Grafikte, “Torque” değerinin artışıyla (kırmızı noktalar), “Instrument put on” özelliğinin SHAP değerinin nasıl değiştiğini görebiliriz. Yüksek “Torque” değerlerinin (kırmızı noktaların) genellikle yüksek pozitif veya negatif SHAP değerlerine sahip olup olmadığını kontrol ederiz. Bu, “Torque” ve “Instrument put on” özelliklerinin birlikte mannequin tahminine nasıl etki ettiğini gösterir.
- Eğer birçok kırmızı nokta (yüksek “Torque” değerleri) x ekseni boyunca sağa doğru (pozitif SHAP değerleri) yayılmışsa, bu durum yüksek “Torque” değerlerinin “Instrument put on” özelliğinin mannequin tahminini artırıcı yönde etkilediğini gösterebilir.
- Eğer birçok mavi nokta (düşük “Torque” değerleri) x ekseni boyunca sola doğru (negatif SHAP değerleri) yayılmışsa, bu durum düşük “Torque” değerlerinin “Instrument put on” özelliğinin mannequin tahminini azaltıcı yönde etkilediğini gösterebilir.
- Eğer renkler x ekseni boyunca karışık bir dağılım gösteriyorsa, bu durum “Torque” ve “Instrument put on” özelliklerinin mannequin tahminine etkisinin daha karmaşık olduğunu ve bu iki özelliğin birbirine bağlı olarak mannequin tahminine farklı etkilerde bulunduğunu gösterebilir. Bu analiz, modelin özellikler arasındaki etkileşimleri daha derinlemesine anlamamıza ve modelin tahmin sürecini daha iyi yorumlamamıza yardımcı olur.
Sonuç olarak, XAI teknikleri kullanılarak yapay zeka modellerinin karar süreçlerini anlamak ve açıklamak mümkündür. Bu sayede, kullanıcılar ve geliştiriciler, modelin nasıl kararlar verdiğini daha iyi kavrayabilir ve güvenlerini artırabilirler. Bu yazı kapsamında incelenen SHAP (Shapley Additive Explanations) yöntemi, mannequin kararlarını açıklamak için güçlü bir araç olarak öne çıkmaktadır.
Ayrıca, Avrupa Birliği Yapay Zeka Yasası (EU AIA) da bu konudaki önemli düzenlemelerden biridir. Aralık 2023’te resmi olarak kabul edilen EU AIA, yapay zeka sistemlerinin etik ve sorumlu bir şekilde kullanılmasını sağlamak amacıyla kapsamlı bir çerçeve sunmaktadır.
XAI’nin sunduğu şeffaflık, yapay zeka sistemlerinde hesap verebilirliğin sürdürülmesinde kritik öneme sahiptir. EU AIA, özellikle yüksek riskli yapay zeka sistemleri için karar verme süreçlerinin şeffaf ve izlenebilir olmasını zorunlu kılmaktadır. Bu bağlamda, SHAP gibi XAI teknikleri, sadece mevzuata uyum sağlamak için değil, aynı zamanda yapay zeka sistemlerinin güvenilirliğini ve kabul edilebilirliğini artırmak için de vazgeçilmezdir.
https://www.datacamp.com/tutorial/explainable-ai-understanding-and-trusting-machine-learning-models
https://shap.readthedocs.io/en/latest/
https://shap-lrjball.readthedocs.io/en/latest/example_notebooks/tree_explainer/XGBoost%20Multi-class%20Example.html
https://www.youtube.com/watch?v=MQ6fFDwjuco
https://positivethinking.tech/insights/navigating-the-eu-ai-act-how-explainable-ai-simplifies-regulatory-compliance/