Amsterdam’da Adil Sosyal Yardım Algoritması Deneyi ve Yapay Zekâda Adalet Mümkün mü?
Yapay zekâ, sosyal yardım başvurularını denetlemek ve sahtekarlığı önlemek amacıyla dünya genelinde giderek daha fazla kullanılıyor. Ancak Amsterdam’da yürütülen “Smart Check” adlı sosyal yardım dolandırıcılığı tespit algoritması projesi, bu teknolojinin adil olup olamayacağına dair önemli soruları gündeme getirdi. Projenin ortaya koyduğu sonuçlar, algoritmaların gerçekten adil kararlar verip veremeyeceğine dair küresel bir tartışmayı yeniden alevlendirdi.
Amsterdam’ın “Smart Check” Projesi: Amaçlar ve Zorluklar
Amsterdam Belediyesi, sosyal yardım başvurularındaki olası hataları ve sahtekarlıkları tespit etmek üzere yapay zekâ destekli bir sistem geliştirdi. “Smart Check” adlı algoritma, başvuruları değerlendirdi ve hangi başvuruların daha fazla incelemeye ihtiyaç duyduğunu belirlemeyi amaçladı. Proje, şeffaflık, önyargı testi ve etik ilkeler gözetilerek geliştirildi. Ancak sonuçlar beklenenin aksine projede ciddi eksiklikler olduğunu gösterdi.
Proje yöneticisi Paul de Koning, algoritmanın insan incelemelerine göre daha az hata yapmasını ve sosyal yardımlarda kamu kaynaklarının daha etkin kullanılmasını umuyordu. Öte yandan, dijital haklar savunucusu Hans de Zwart, sistemin temelinde tarihi verilerin kullanılması sebebiyle var olan önyargıları yeniden üreteceğini ve düzeltemeyeceğini savundu. Özellikle göçmenler, kadınlar ve düşük gelirli gruplar üzerinde ayrımcılık riski taşıyan algoritmanın, sosyal yardım alan kişilerin haklarını ciddi tehdit altına alabileceği endişesi dile getirildi.
Algoritmik Adaletin Sınırları ve Etik Tartışmalar
Smart Check, kişisel demografik bilgilerden (cinsiyet, yaş, posta kodu gibi) kastan kaçınarak daha adil bir değerlendirme yapılmaya çalışsa da, geçmişteki insan kararlarından kaynaklanan önyargılar veriye yansıyordu. Bu da algoritmanın kendi içinde farklı gruplara karşı çifte standartlar geliştirmesine neden oluyordu.
Amsterdam’ın sosyal yardım sistemi uzun yıllardır güven sorunu yaşıyordu. İnsanların devlete duyduğu güvensizlik, devletin de vatandaşlarına karşı temkinli yaklaşmasıyla devam eden bir kısır döngü yaratmıştı. 1980’lerden beri süregelen sosyal hizmetlerin gözetim usulleri, zaman zaman haksız uygulamalara sahne olmuştu.
Bu nedenle, Smart Check projesi sorunu teknoloji ile çözebileceklerini umut etti. Ancak deneyde ortaya çıkan temel sorunlar şunlardı:
- Algoritma, göçmenlerden ve erkeklerden daha fazla şüpheli durum tespit ederek ayrımcılık yaptı.
- İnsan incelemeleri ise tam tersi bir şekilde, yanlışlıkla Hollandalı ve kadın başvuruları daha fazla işaretledi.
- Veri ağırlıklandırma teknikleri ile bazı önyargılar azaltılsa da, model tüm kesişimsel adaletsizlikleri ortadan kaldıramadı.
- Algoritma, insan uzmanların doğrudan iletişim kuramadığı karmaşık sistemler yaratarak, hataların düzeltilmesini zorlaştırdı.
Deneyden Çıkarılan Dersler ve Geleceğe Bakış
Smart Check deneyinin sonunda, pilot uygulama 2023 yılında başarısızlıkla sonuçlandı ve proje iptal edildi. Amsterdam Belediyesi, algoritmanın önemli önyargılar taşıdığını kabul ederek daha fazla test etmeye devam etmek yerine sistemi durdurma kararı aldı. Bu da “adil yapay zekâ” idealinin henüz çok erken bir aşamada olduğunu ortaya koydu.
Katılımcıların ve hak savunucularının projeye sert eleştirileri vardı; şehir meclisi üyeleri ise projedeki maliyetler ve fırsat maliyetine dikkat çekti. Özellikle, harcanan kaynakların sosyal yardım alan kişilerle birebir iletişim kurmaya ve destek sağlamaya yatırım yapılması gerektiği belirtildi.
Amsterdam’daki bu tecrübe, yapay zekânın kamusal alanda uygulanması sırasında karşılaşılan etik, hukuki ve sosyal zorlukları gözler önüne serdi. Algoritmik kararların temelinde geçmiş verilerin kullanılması kaçınılmaz olduğundan, mevcut toplumsal önyargılar sisteme yansıyor ve bazen derinleşiyor. Bu nedenle;
- Yapay zekâ uygulamalarında şeffaflık ve hesap verebilirlik artırılmalı,
- Temel hakları koruyan, katılımcı ve denetime açık yaklaşımlar benimsenmeli,
- Ve en önemlisi, yapay zekânın sosyal yardım gibi hassas alanlarda insan faktörü ile desteklenerek dikkatle kullanılması gerekiyor.
Uzmanlar, bu teknolojilerin karmaşıklığı ve çok boyutlu adalet talepleri göz önüne alındığında, tamamen adil bir yapay zekâ sisteminin kısa vadede mümkün olmayabileceğini vurguluyor. Ancak Amsterdam deneyimi, teknolojinin eksiklikleriyle yüzleşme ve mevcut süreci iyileştirmeye yönelik önemli bir adım olarak değerlendirilebilir.
Sonuç olarak, gelecekte yapay zekâ destekli sosyal yardım sistemlerinin başarısı, sadece teknik mükemmelliğe değil, aynı zamanda toplumsal katılıma, etik sorumluluğa ve politik kararlara bağlı olacak. Amsterdam’da yaşananlar, hükümetlerin bu teknolojileri hayata geçirirken dikkatli ve ölçülü adımlar atması gerektiğini gösteriyor ve “adalet” kavramının sadece matematiksel değil, sosyal bir mesele olduğunu bir kez daha hatırlatıyor.