Britanya’da öğrencilerin üniversiteye girişlerinde belirleyici olan sınavların pandemi nedeniyle ertelenmesi üzerine nihai notları öğretmenlerin vermesine karar verilmiş, ardından öğretmenlerin notları olması gerekenin üstünde vereceği ve bir not enflasyonu olacağı kaygısıyla merkezi bir algoritma ile notların düzeltilmesi ve daha adil bir not dağılımının olması planlanmıştı. Sonuçta not enflasyonu kaygısı gerçek çıktığı için neredeyse tüm öğrencilerin notları düşürüldü.
Buraya kadar mantıklı denilebilecek bir karar geçtiğimiz ay notlar açıklandığında ciddi bir skandala dönüştü ve pandemiye ve tatile rağmen güçlü bir öğrenci hareketi ortaya çıktı. Gençler nazik bir çeviriyle “lanet olsun algoritmanıza” diyerek sokaklara çıktı, ardından önce İskoç hükümeti, ardından da Johnson hükümeti geri adım atarak algoritmanın verdiği kararların yok sayıldığını ilan etti, üniversiteler de şartlı kabul alan öğrencileri kabul edeceğini duyurdu. Bu nedenle üniversiteye kimin yerleştiği ve kontenjanlar konusunda ciddi bir karmaşa yaşandı.
Bu karmaşa ve skandaldan önemli dersler çıkarmak mümkün. Yapay zeka da dahil çeşitli algoritmaların mevcut eşitsizlikleri nasıl yeniden ürettiği ve ayrımcılıkları normalize ettiği üzerine geniş bir literatür var. Polise ve yargıya yardımcı olan algoritmaların yoksul ve siyah/azınlık kesimleri hedefe koyduğu veya iş yerlerinde insan kaynaklarına yardımcı olan algoritmaların çalışan haklarını göz ardı ettiği üzerine ciddi bir birikim oluştu. Basit bir ifadeyle bunun temel sebebinin dizayn sürecinde kullanılan veri setlerinin taraflı, önyargılı, mevcut eşitsizlikleri ve ayrımcılılıkları yansıtan şekilde hazırlanması ve algoritmaların da bu veri setine dayanarak söz konusu kararları almasıdır. Örneğin uyuşturucu arama için polis daha çok yoksul mahallelerde operasyon yaparsa ve zengin muhitlere yoğunlaşmazsa tabii ki uyuşturucu en fazla yoksul mahallelerde kullanılıyor verisi ortaya çıkar, buna dayanarak algoritma da bu mahallelere yoğunlaşılmasını önerir. Bu, zengin muhitlerde uyuşturucu kullanılmadığı anlamına gelmez, sınıfsal/sosyo-ekonomik farklılıkların devrede olduğunu gösterir. ABD’de hapishanelerde daha çok siyahların olması siyahların suça meyilli olduğu anlamına gelmez, polis teşkilatındaki kurumsal ırkçılığı ve siyahlara yönelik baskıları kanıtlar. Bu yönde ciddi bir politik, sosyolojik birikim ve verilen hak temelli mücadeleler olduğu için bizler bu niteliksel yaklaşıma sahibiz ama bunun algoritmik karar alma süreçlerine nasıl yansıyacağı ayrı bir tartışma konusu.
Britanya’daki örnek de bunun bir benzeri ama belki de en kitlesel tecrübesi oldu. Aslında algoritmaya başvurmanın mantığı başta da denildiği gibi ortada. Ancak sonuçta ne oldu da öğrenciler lanet okuma seviyesine geldi? Algoritma her okulun tarihsel başarısına uygun bir seviye yakalamaya çalıştı. Örneğin bir okulun son 10 yılda bu sınavdan aldığı ortalama puan 68 ise ve bu yıl ortalama bir anda 85’e çıktıysa her öğrenciden yaklaşık 15 puan düşürüp ortalama 68’e indirildi; bir diğer okulun ortalaması 85 ise ve bu sene 92’ye çıktıysa o okulunki de 85’e indirildi.
Burada 2 temel sorun kendisini gösterdi. İlki İngiliz eğitim sistemindeki derin eşitsizlik çok bariz şekilde ortaya çıktı. Yoksul mahallelerdeki okullar eğitim politikaları ve ayrılan bütçe nedeniyle daha düşük puanlara sahipken zengin muhitlerdeki okullardan ve özel okullardan gelenler daha yüksek puanlar alıyor. Bu nedenle Oxford, Cambridge gibi üniversitelere daha çok üst sınıfların çocukları gelirken, yoksul ailelerin çocukları azınlıkta kalmaktaydı. Ama merkezi bir sınavın olması ve az sayıda da olsa ortalamanın çok üstünde başarılı göstererek bu prestijli üniversitelere girebilen yoksul öğrencilerin olması bu eşitsizliğin bir nebze gölgelenmesine ve dikkatten kaçmasına neden oluyordu. Bu sene ise algoritma marifetiyle bu eşitsizlik berrak bir şekilde karşımıza çıktı. Özel okullardaki çocukların puanı ortalama 7-8 puan düşerken yoksul okullardaki çocukların puanları ise 15-20 puan indirildi.
İkinci sorun ise bu yoksul mahallelerdeki devlet okullarında çok başarılı öğrenciler vardı ve bu öğrencilerin özel okuldaki ortalama bir öğrenciden çok daha fazla çaba göstererek Oxford, Cambridge gibi üniversitelere şartlı kabul alanlar oluyordu. Bu sene de öyle olmuştu. Üniversiteler bu sınav öncesinde öğrencilerin başvurularını değerlendiriyor, onların önceki yıllardaki başarılarını inceliyor, mülakat yapıyor, gerekirse yazı-araştırma örneği alıyor veya kendisi de ayrıca bir sınav yapıyor ve tüm bunların sonucunda öğrenciyi şartlı kabul ediyor. Diyor ki öğrenciye, kalan son dönemde ve son sınavda da aynı başarıyı korursan bize gelebilirsin. Bu da genelde oluyordu, yıllardır başarılı performans gösteren çocuklar hazır istedikleri okuldan onay da almışken son dönem yoldan çıkmıyor, daha şevkli çalışıyorlardı. Algoritma devreye girince bu çocukların da puanı şak diye 15-20 puan düştü. A iken B’ye indi ve şartı yerine getirmedikleri için Oxford ve Cambridge gibi üniversitelerden red aldılar, yerlerine başka öğrenciler alındı. Asıl feryat da bu noktada koptu.
Öğrenci eylemleri ve toplumsal baskı sonucunda, özellikle Britanya’da “fairness”/“adillik” meselesi de can alıcı öneme sahip olduğu için üniversiteler bu şartlı kabul alanları kabul edeceklerini ilan etti. İskoç hükümeti, pandemi dönemini bağımsızlık mücadelesi olarak değerlendirmek istediği için öğrenci hareketinin gönlünü almak için hemen geri adım attı. Johnson hükümeti önce 1 hafta kadar geri adım atmadı, U dönüşü yok dedi, ancak sonra tek tek üniversiteler şartlı kabul alıp hakkını yitirenleri alacağını ilan etmek zorunda kalınca ısrar etmenin anlamsızlığını görüp U dönüşünü yaptı. Tabii bu öğrenciler haklarını kaybedince onların yerine üniversiteye alınanları atmak da mümkün olmadığı için üniversitelerin kontenjanları şişmiş oldu.
Burada iki temel olgu öne çıkıyor. İlki algoritma sanki bir insanmış, bağımsız bir duruşu varmış gibi önce öğrencilerin hedefine oturdu ve hakaret üstüne hakaret yedi. Sonra toplumsal baskı karşısında geri adım atan politikacıların günah keçisi oldu, bu kez de politikacılar biz bilmiyorduk, algoritmanın suçu demeye başladı. Birçok araştırmada insanların genellikle algoritmalara/yapay zekaya nötr, objektif, bilimsel ve bağımsız bir rol verildiği belirtilir, bu nedenle insanlar algoritmik kararlara pek karşı çıkmaz. Örneğin işten çıkarılan bir çalışan veya vizesi reddedilen bir sığınmacı bunun kendisine ayrımcılık yapan görevli tarafından değil de bilgisayar tarafından verilen bir karar olduğunu öğrenince genellikle karşı çıkmaz. Bu son eylemler gösterdi ki algoritmaların objektifliği, nötrlüğü, haklılığı gibi konular artık pek gündemde olmayacak. Ancak algoritmalara bağımsız, yargıda bulunma gücü olan bir insan şekilde davranma tarzı devam ediyor.
İkincisi ise aslında algoritmaya insan gibi muamele etsek ve bir USB’ye yükleyip hapsetsek dahi bu meselede algoritmanın bir suçu yok. Belki de tek suçu kendisinden istenileni doğru şekilde yapması. Mesele her bir okulu tarihsel veri setine uygun ortalamalara çekmekse bunu başarıyla yerine getirdi. Ancak esas mesele Britanya’da eğitim sistemindeki sınıfsal eşitsizlikler ve ayrımcılıklarla ilgili. Bu konuda adım atılmadıktan sonra birçok ortalama başarıya sahip zengin aile çocuğunun yanına birkaç çok zeki yoksul aile çocuğunu eklemleyerek üniversitede sınıflar oluşturmak soruna çözüm olmuyor.
Ancak bu algoritmayı geliştirenlerin yine de başarısız olduğunu belirtmek gerekir. Çünkü meselenin toplumsal boyutlarını görmeyip sadece veri setini yüklemekle işlerini bitirmiş oldular. Oysaki asıl iş ondan sonra başlıyor. Öğrencilerin bireysel başarıları, çabaları bir şekilde devreye sokulmalıydı, okuldaki herkes toplu şekilde cezalandırılmak yerine okul puanı ve kişisel başarı sentezlenebilmeliydi. Bunun için dizayn sürecinden itibaren katılımcı, şeffaf şekilde bu sürecin örülmesi, öğrencilerin, öğretmenlerin ve velilerin temsilcilerinin de sürece dahil olması gerekirdi. Bu algoritma geliştirilirken aslında tüm bu paydaşlar davet edildi, yani gizli, saklı bir süreç de değildi ama mesele sadece davet etmek değil, bu paydaşların da gerekli donanıma ve uyanıklığa sahip uzmanlar ile sürece dahil olması gerekirdi. Dahası meselenin bir de yasal boyutu da var. Ayrımcılığa karşı yasalar karar alıcıların ve uygulayıcıların bu yönde gerekli önlemleri alma ve özgünlükleri dikkate alma şartı getirmektedir.
Bu açılardan karar alma süreçlerine algoritmik destek konusunda önemli dersler içeren bir süreç yaşandı ve gençlere pandeminin üstüne ek bir külfet getiren bu denemeden vazgeçilmesi ile de mesele bir şekilde çözülmüş oldu. Ama algoritmanın kaldırılmasıyla gelen çözümün temel, yapısal meselelere dair talepleri de geri plana attığını göz ardı etmemek gerekir.