EğitimYapay Zeka

Eğitimde Yapay Zeka ve Beş Temel Etik Kaygı

Konu: Yapay zeka uygulamalarının eğitim sektöründe büyük değişim ve değer yaratması bekleniyor. Ancak, bu potansiyelin yanında, göz önünde bulundurulması gereken etik kaygılar var. Bu yazıda temel etik kaygıları beş kategoride inceledik. 

Eğitimde yapay zekayla ilgili etik kaygılar neler: Daha önceki yazımda ve Mert Özgür’ün de yazısında yapay zekanın eğitim sektöründe kullanılmasının getirdiği potansiyelin yanında etik kaygılara değinmiştik. Bu yazıda ise temel etik kaygıları şu şekilde sıralamak mümkün:

  1. Özel sektörün kaygılarıyla öğrencilerin öncelikleri paralel olmayabilir: Yapay zeka altyapısı kullanan eğitim uygulamalarının yaratıcıları dünyanın pek çok yerinde özel sektör firmaları. Bunlara örnek olarak Zzish, Maths-Whizz, ve Çin’den Squirrel AI gösterilebilir. Bazı kaygılar, özel sektörün gelir ve karlılık odağının öğrencilerin önceliklerini göz ardı edebileceği yönünde. Örneğin, bir uygulama öğrencinin ihtiyaç duymayacağı içerikleri dahi platformunu kullandırmak için öne sürer mi; öğrencilerden topladığı devasa seviyede bilgiyi, öğrencinin ve ailesinin rızası olmadan reklam yaratmak veya optimize etmek için kullanır mı gibi sorular bu alanda akla gelen ilk sorulardan.
  1. Kullanılan algoritmalar çoğunlukla sadece tek taraflı biliniyor: Teknoloji sektöründe Google’ın başını çektiği pratiklerden biri, kullanılan algoritmaların ‘ticari sır’ tanımı altında kullanıcıyla paylaşılmaması. Her ne kadar bu pratik serbest piyasa kapitalizminde bir yere kadar anlaşılır olsa da, yapay zekanın kullandığı algoritmalar, kullanıcılardan toplanan kişisel bilgilerle besleniyor. Yapay zekayı kullanan eğitim uygulamalarında ise öğrencilerden ne tür bilgiler toplandığı çoğu zaman öğrenci ve ebeveyni tarafından bilinmiyor. Eskiden ebeveynlerden alınan ‘rıza formları’, bu yeni dönemde artık geçerliliğini yitirmiş durumda. Çocuğunun hangi hareketlerinin takip edildiğini bilmeyen aileler, ne tür kişisel bilgilerden feragat ettikleri konusunda bilgisiz ve endişeli olabiliyor.
  1. Uzun zaman tutulan veriler öğrencilerin gelecek performansını haksız yönde etkileyebilir: Teknolojik uygulamalar eğitime entegre oldukça, öğrenci hakkında toplanan veriler belki yıllar boyunca sistemlerde tutulacak. Bu verilerden bazılarının artık geçerliliğini yitirmiş veriler olması ve buna rağmen öğrenciye sunulan içerikleri etkilemesi muhtemel. Yapay zeka uygulamaları, eğitim içeriklerini verilere dayalı olarak kişiselleştirdiği için, geçmişten gelen ama geçersiz bazı veriler öğrencinin gelecekte karşısına çıkabilecek içeriklerin kalitesini, öğrencinin gelişim yollarını ve hatta istihdam fırsatlarını haksız şekilde engelleyebilir.
  1. Eğer veride tarafsızlık ve önyargı varsa, bazı toplumsal gruplara sunulan içerik de önyargı içerebilir: Yapay zeka uygulamalarını eğitirken kullanılan veri setlerinde belli gruplara karşı önyargı bulunuyorsa, bu uygulamaları kullanan öğrenciler de bu önyargılardan etkilenen içerikleri kullanmak durumunda kalacaktır. Örneğin, yapay zekanın sunacağı içerikler, belli bir cinsiyet, etnik grup, veya ailenin eğitim / gelir seviyesi gibi değişkenlerden etkilenirse, öğrenciler haksız yere önyargılı içeriklerle karşılaşabilirler.
  1. Yapılan ‘deneyleri’ denetleyen bir mekanizma henüz yok: 1970’lerde, insanlar üzerinde yapılan araştırmaların olası negatif yansımalarını engellemek için uluslararası ‘İnsan Denekleriyle Araştırma’ (Human Subjects Research) kuralları ve yaptırımları belirlendi. Ancak, bugün yapay zeka uygulamalarının öğrenciler üzerinde uyguladığı deneyler üzerinde herhangi bir standart bulunmuyor. Teknolojik bir deneyin / testin etik olup olmadığına nasıl karar vereceğiz ve bunu nasıl denetleyeceğiz sorularını yanıtlamak için yılların geçmesini beklemek gerekebilir. Ama bu geçen yıllarda, yapılan deneylerden özellikle çocukların nasıl etkileneceğini bilemeyeceğiz.

Örnekler: Bill and Melinda Gates Foundation tarafından 100 milyon dolarlık ‘tohum yatırımı’ ile desteklenen inBloom uygulaması, 2014’te New York mahkemesinin öğrenci mahremiyetine dair kaygılar üzerine yaptığı itirazlar sonucu kapatıldı. inBloom, okulların öğrencilerle ilgili topladığı tüm verileri bir çatıda toplamayı, her öğrencinin ilerleyişini yakından takip etmeyi ve böylece eğitimi kişiselleştirmeyi hedefliyordu. Fakat bir anda her öğrenci hakkında toplanan 400’den fazla verinin bazılarının mahremiyeti göz ardı edecek şekilde gereksiz ve ayrıntılı olduğu ortaya çıktı. Aileler ve okullar, inBloom’un niyetini sorguladı ve eleştiriler, uygulamanın kapatılmasına kadar devam etti.

İleride bizi ne bekliyor: Veri güvenliğiyle ilgili Avrupa’da GDPR, Türkiye’de KVKK gibi yasalar ilk adımlar. Güvenilir bir yapay zeka kurgusu için etik değerler için yapılanlar da bu adımların devamını getiriyor. Bunların eğitime özelleştirilmesi zaman alacaktır, ancak yasalar dışında da yapılması beklenenler var. Bu teknolojileri geliştiren mühendisleri, veri bilimcileri, girişimcileri, yaptıkları uygulamaların etik yansımalarını düşünebilmeleri için de eğitmeliyiz. Üstelik bu eğitim sadece üniversitelerde değil, daha erken yaşlarda başlamalı.

Kaynak: Zeide, Elana, Education Technology and Student Privacy (March 21, 2018). Elana Zeide, Education Technology and Student Privacy, 70–84 (Evan Selinger, Jules Polonetsky, & Omer Tene eds., 2018) The Cambridge Handbook of Consumer Privacy . Available at SSRN: https://ssrn.com/abstract=3145634

Başlangıç Noktası E-bülten

Merak etmeyin. Asla Spam yapmıyoruz.

İlginizi çekebilir
EğitimUzman Analizleri

Eğitim ile Finansal Okuryazarlık

BlockchainEğitim

Blockchain Eğitim Sistemimizin Hangi Yaralarını Sarar?

EğitimUzman Analizleri

Girişimcilik ve Eğitim

AlgoritmaEğitim

PISA’da Bir İlk: 2021’de Algoritmik Düşünme Soruları

Başlangıç Noktası E-bülten

Merak etmeyin. Asla Spam yapmıyoruz.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir