ÖzgürKon 2026 25–26 Nisan 2026 Barış Manço Kültür Merkezi, Kadıköy, İstanbul Katılım ücretsiz

Ücretsiz kayıt ol

“Trust the Algorithm”: Yapay Zekada Güven ve Açıklanabilir Yapay Zeka

Bugün birçok kritik kararın arkasında algoritmalar var. Kredi skorları, işe alım filtreleri, risk analizleri, güvenlik sistemleri ve neredeyse her şey. Çoğu zaman bu kararlarla karşılaştığımızda aldığımız cevap basit oluyor: “Sistem böyle hesapladı.” Bu noktada asıl soru şu: Bir algoritmaya neden ve nasıl güveniriz? Son yıllarda “Açıklanabilir Yapay Zekâ” başlığı altında geliştirilen yöntemler, bu soruya teknik bir yanıt üretmeye çalışıyor. SHAP ve LIME gibi yöntemler modelin hangi değişkenlere ne ölçüde baktığını göstermeyi hedefliyor. Model kartları ve veri seti belgeleri sistemin sınırlarını tarif etmeye çalışıyor. Üretken modeller ise kararlarını adım adım açıklayan metinler üretebiliyor. Ancak burada kritik bir ayrım var: Bir sistemin açıklama üretmesi, o sistemi gerçekten anladığımız anlamına gelir mi? Bu konuşmada açıklanabilirlik kavramını teknik boyutuyla ele alırken, güven meselesini daha temel bir yerden tartışacağım. Açıklama ile hesap verebilirlik arasındaki fark nedir? İkna edici bir açıklama her zaman doğru mudur? Özellikle karmaşık ve kapalı sistemlerde, sunulan açıklamaları ne ölçüde doğrulayabiliyoruz? Belki de soruyu şöyle sormalıyız: Algoritmaya güvenmeli miyiz, yoksa onu denetleyebiliyor muyuz? Bu konuşma, teknik araçlarla üretilen açıklamaların gerçekten ne sağladığını ve nerede yetersiz kaldığını birlikte düşünmeye davet ediyor.

Açıklanabilir Yapay Zekâ (XAI) yöntemleri, sistemlerin kararlarını anlamamızı sağlamayı hedefliyor. Ancak akademide ve sektörde temel bir anlaşmazlık var: Bir modeli sonradan açıklamak mı daha anlamlı, yoksa baştan anlaşılabilir bir model kurmak mı? Ve açıklanabilir yapay zeka bizim adımıza iyi sonuçlar üretmeyi sağlayacak mı, yoksa şirketleri dokunulmaz kılmaya mı yarayacak.

Konuşmada bunu anlamak SHAP ve LIME gibi post-hoc açıklama yöntemlerinin nasıl çalıştığı ve hangi durumlarda yanıltıcı olabileceği ele alınacak. Özellikle Cynthia Rudin’in savunduğu yaklaşım üzerinden, “kara kutu modeli açıklamaya çalışmak yerine doğrudan yorumlanabilir modeller inşa etmek” fikri tartışılacak. Rudin’in, yüksek riskli alanlarda (sağlık, hukuk, kamu kararları gibi) karmaşık ama opak sistemler yerine doğrudan anlaşılabilir modellerin tercih edilmesi gerektiği yönündeki argümanı, teknik ve etik boyutlarıyla değerlendirilecek.

Diğer yandan Timnit Gebru’nun veri seti belgeleri (datasheets for datasets) ve model şeffaflığı üzerine çalışmaları çerçevesinde, açıklanabilirliğin yalnızca model içi mekanizmalarla sınırlı olmadığı; veri toplama süreçlerinden kurumsal hesap verebilirliğe kadar uzanan daha geniş bir sorumluluk alanı içerdiği vurgulanacak. Gebru’nun öne çıkardığı veri önyargıları, belgeleme eksiklikleri ve kurumsal güç ilişkileri, “açıklama”nın teknik bir araç olmaktan çok politik bir meseleye dönüştüğü noktaları görünür kılacak. Bu çerçevede konuşma üç temel soruya odaklanacak: Açıklama üretmek gerçekten anlamaya mı karşılık gelir? İkna edici bir açıklama her zaman doğru mudur?

Güven, sistemin anlattığı hikâyeden mi, yoksa o sistemi sorgulayabilme imkânından mı doğar? Amacım, alanda çalışan bir araştırmacı olarak açıklanabilirliği tamamen reddetmek değil; onu daha sağlam bir zemine oturtmak. Çünkü güven, yalnızca modelin ne söylediğiyle değil, nasıl tasarlandığı, hangi verilerle eğitildiği ve ne ölçüde sorgulanabildiğiyle kurulur. Bu konuşma, “Trust the Algorithm” çağrısını yeniden düşünmeye ve açıklanabilirlik ile hesap verebilirlik arasındaki farkı birlikte tartışmaya davet ediyor.

Aynı gün diğer oturumlar

Tüm oturumları incele

ÖzgürKon’a gelin

İki gün, onlarca oturum; yerinde katılım ücretsiz. Yerinizi ayırmak için kayıt olun — isterseniz dayanışma biletiyle destek olun.