Günümüzü Anlamak

Verimiz Büyük Ama Ne Kadar Tarafsız?

Verinin açık ve erişilebilir hale getirilmesinin şeffaflık, hesap verilebilirlik ve denetlenebilirlik ilkelerini hayata geçirebileceği bir gerçek. Büyük verinin, iyi yönetişimin sağlanması için ne kadar hayati bir araç olduğu güncel akademik çalışmalarda ve konferanslarda sıkça dile getiriliyor. Fakat herkes tarafından kullanılabilir ve dağıtılabilir olan açık verinin ticaret ve bilişim alanındaki ayrıcalıkları ve ayrımcılıkları ne kadar ortadan kaldırabileceği – ya da kaldıramayacağı – veri bilimciler tarafından yeterince tartışılmıyor

25 Şubat’ta gerçekleşen “Veri Okuryazarlığını Anlamak” KonuŞu’sunda Kadir Has Üniversitesi Büyük Veri Analitiği Yüksek Lisans Programı Direktörü Prof. Dr. Özgür Özlük, her kurumun ya da kişinin kendi verisini satabilmesi ya da işleyebilmesinin hali hazırdaki hiyerarşik veri dağılımını düzleştirebileceğini söyledi. Prof. Özlük’ün bahsettiği gibi bir veri ekonomisi sağlanabilirse, FAMGA (Facebook, Amazon, Microsoft, Google, Apple) şirketlerinin sektördeki tekeli kırılabilir ve veri okuryazarlığının önemi artabilir.

Çoğu ürünün bedava olduğu FAMGA şirketlerinde görünmez ürün, kullanıcıların bizzat oluşturdukları veriler. Facebook skandalıyla aşina olduğumuz bu gerçeğin en çarpıcı noktası kullanıcıların ürettikleri verinin farkında olmamaları. Kullanıcı verileri, şirketlerin hem daha etkili bir şekilde pazarlama stratejilerini oluşturmalarına hem de derin öğrenme ile kendini geliştiren yapay zekâ uygulamaları yaratmalarına yarıyor. Derin öğrenmede, bir makineye tıpkı bir çocuk gibi ‘çokça bilgi’ gösteriliyor ve bu bilgilerden birtakım testler doğrultusunda sonuçlar çıkarması öğretiliyor. Yani makinelere daha fazla veri göstererek daha hızlı öğrenmesi sağlanıyor. Buna ‘yapay öğrenme’ deniyor.  Son 20 senede veri toplama ve analiz etme kapasitelerinin artmasıyla yapay öğrenme artık ‘as/if’ mantığından çıkıp, hatalarından öğrenerek kendini geliştiren makineler oluşturmaya başladı. Bu makinelerin öğrendiği materyaller ise yine kullanıcıların, yani bizlerin, oluşturduğu veriler.

Örneğin Microsoft’un 2016 yılında oluşturduğu yapay öğrenme örneği Tay, tweet bazlı makine öğrenmesi gerçekleştirerek kendi profilinde paylaşımlar yapmak üzere tasarlanmıştı. Tay, 24 saatten az bir sürede ırkçı ve cinsiyetçi 96 bin tweet attı. Bu durum, yapay zeka uygulamalarının filtrelenmemiş kamusal veriden beslendiğinde ne kadar tehlikeli olabileceğini ortaya koyuyor.

ABD Temsilciler Meclisi’nin 28 yaşındaki üyesi Alexandria Ocasio-Cortez, Ocak ayının son haftasında New York’da gerçekleşen Martin Luther King’i anma gününde, dinleyenleri yapay zeka uygulamalarının derin öğrenme teknolojisiyle insanların taraflı düşüncelerini otomatik olarak gerçek kabul ederek çok yanlış yerlere gidebileceğine dair uyardı. Ocasio-Cortez, bilim adamları ve fütüristler tarafından halk nezdinde bilişim teknolojilerinin prestijini azaltmakla suçlansa da çok haklı bir noktaya parmak bastı. Yapay zekâ uygulamalarının derin öğrenme yaptıkları veri setleri bizzat insanlar tarafından oluşturuluyor. Bu veri setleri çoğu zaman insanlığın tamamını temsil etmiyor ve/veya çok fazla ‘kötü’ veri içeriyor.

George Washington Üniversitesi’nde bilgisayar bilimi alanında profesör asistanlığı yapan Aylin Çalışkan, “makinelerin genel olarak tarafsız olduğu düşünülüyor fakat bu yanlış bir kanı. Makineler insanın ürettiği verilerden derin öğrenme gerçekleştiriyorlar. Dolayısıyla insanların ön yargılarını tamamen bünyelerine alıyorlar.” diyor.

2000’lerin başında dijitalleşen iletişim sistemleriyle makinelerin çevrelerinden topladıkları verileri bilgiye dönüştürmeleri ve bunu davranışlarına yansıtmaları daha kolay hale geldi. 2010’da internetin mucidi Tim Berners-Lee, yaptığı TED konuşmasında bütün hükümetlerin, şirketlerin ve kurumların işlenmemiş verisini açmasının ‘müthiş’ sonuçlar doğuracağını iddia etti. Fakat günümüzde gelinen noktada bu denklemde bir eksik olduğunu görmemek imkânsız. Veri tabanı büyürken ve bunu kullanan şirketler daha fazla yapay öğrenme uygulamaları çıkartırken, bütün bu işlemin özünü oluşturan verinin nereden geldiği, kimin tarafından düzenlendiği ve nasıl aktarıldığı yeterince sorgulanmıyor.

Diğer bir yandan, verinin mülkiyet olarak algılanıp etrafının duvarlarla çevrilmesi ve sadece güçlü tarafından erişilebilir olması son derece büyük bir tehlike oluşturuyor. Bu hem şirketlerin ürettiğimiz verileri kullanarak bizi daha kolay manipüle etmelerini kolaylaştırıyor, hem de bize ‘hizmet eden’ makinelerin bizler kadar taraflı olmalarına neden oluyor. Ne var ki günümüzde etik değerlerimiz teknoloji kadar hızlı ilerlemiyor. İşte tam da bu nedenle yapay zekâ uygulamalarını yaygınlaştırmadan önce onların hangi etik kurallar dahilinde ele alınacağına karar vermek gerekiyor. Yapay zekanın insanlık için ‘yararlı’ bir buluş olmasını istiyorsak önce ‘yararın’ ne olduğunu etik tartışmalar çerçevesinde ele almak icap ediyor.

2004 yılında çekilen ‘Ben Robot’ adlı filmin ilham aldığı Isaac Asimov’un 1942 yılında yazdığı hikayesi ‘Üç Robot Yasası’nda,  makinelerin insana zarar vermemesi, insanın emirlerine uygulaması ve kendini koruyabilmesi gerektiği savunulur. Fakat bugün gelinen noktada makinelerin çoğu zaman insanlardan çok da farklı bir kulvarda gelişmediği, aksine insanlığın veri birikiminden öğrenerek davrandığı ve dolayısıyla ‘çok hızlı çalışan bir insanlık ortalaması’ olduğu aşikâr.  Asimov makinelerin sosyalleşebileceğini hesaba katmadığı için son derece lineer kurallar koymuştu.  Bugün ihtiyacımız olan şey ise yapay öğrenmenin sağlandığı veri havuzunun düzgün olduğundan emin olmak. Bu nedenle hepimiz tükettiğimiz veriler kadar ürettiğimiz verilerin de sorumluluğunu almalıyız. Bu bağlamda geleceğin en önemli becerilerinden biri, hali hazırdaki verinin doğru bir şekilde düzenlenip kullanılabilmesini sağlayacak olan ‘veri okuryazarlığı’ olacak.

Veri Okuryazarlığı Derneği Kurucusu Pınar Dağ, bireylerin veriyi bulabilme, onu işleyebilme ve görselleştirip anlam yaratabilme yeteneğine sahip olmalarının iş dünyasındaki çoğu kapıyı açabileceğini savunuyor. Pınar, veri okuryazarlığının ilk şartının erişilen verinin doğru taranması ve süzülerek sunulması olduğunu söylüyor. Bu nedenle hem medya kuruluşlarında hem şirketlerde hem de yerel yönetimlerde veri temelli üretimin yapılmasının talep edilmesinin gerekliliğini savunuyor.

1986’da 2.6 exabyte olan analog veri 2007’de 280 exabyte’a erişti. 2016’da dünyadaki bütün verinin toplamının ise 16 zetabyte’ı bulduğu açıklandı. Bu verinin büyük bir kısmı 2005’ten sonraki üssel dijitalleşmeyle oluşturuldu. Şu anda içinde yüzdüğümüz büyük veri havuzu, toplumsal eşitsizliklerin geri dönülemez noktaya gelmesine neden olabilir veya daha fazla insanın bilgiye erişimini sağlayarak küresel farkındalık seviyesini arttırabilir. Bu noktada önemli olan teknolojik gelişmelerle eş hızda etik kuralların da oluşturulması için araştırma, geliştirme ve tartışma ortamlarının yaratılmasıdır.

İlginizi çekebilir
Günümüzü Anlamak

Veri Okuryazarlığını Anlamak

Günümüzü Anlamak

Bitcoin ile Aya Yolculuk

Günümüzü Anlamak

KonuŞu: Yeşil Şehirler - Çevreciliğin Dönüşümü

Günümüzü Anlamak

Akıllı Şehir Politikaları Üzerine 5 Eleştiri

Başlangıç Noktası E-bülten

Merak etmeyin. Asla Spam yapmıyoruz.