Veri Analitiği Berc Cubukciyan tarafından oluşturuldu.

Veri analitiği mevcutta bir çok kurumun en çok önemsediği ve ajandasında üst sıralarda bulundurduğu konulardan biri. Her geçen gün toplanan veri miktarı gittikçe artmakta ve bu oran arttıkça şirketlere oluşturdukları fayda maliyetleri de artmaktadır. IDC’nin yayınlamış olduğu rapora göre 2010 yılında üretilen veri miktarının; 2018 yılı sonunda 35 kat ve 2025 yılının sonunda 160 kat artmış olacağı öngörülmektedir (David Reinsel, 2017). Peki bu üssel olarak artan veri miktarını nasıl açıklayabiliriz? Aslında cevabı çok da zor olmasa gerek. Yakın zamanda konuşmaya başladığımız herşeyin interneti (IoT), sürücüsüz araçlar, akıllı ürünler, sensörler ile toplanan veriler gibi listeyi daha da uzatabileceğimiz yeni yaklaşımlar, veri miktarındaki artışın temel sebebi olarak düşünülebilinir. OECD’nin yayınladığı rapora göre; sadece veri miktarındaki artış değil aynı zamanda veri kanallarındaki artan çeşitlilik (data variety) ve veriye ulaşım süresi (data velocity) de mevcut iş problemlerinin karmaşıklığını arttıran diğer değişkenler olarak belirtiliyor (OECD, 2014). Ayrıca veri kalitesi de (data quality) en önemli faktörlerden biri diyebiliriz. Son zamanlarda sıklıkla rastlanan konuların başında yer alan Blockchain’in; veri analitiği uygulamalarının temel girdisi olan veri üzerindeki kalite problemini çözeceğine kuşku yok. Verilerin, takip ediliyor ve her aşamada tüm değişikliklerin kaydediliyor olmasının; veri analitiği uygulamaları sonucu elde edilen çıktıların doğruluk payına direkt olarak olumlu katkısı mevcuttur (Cole, 2018). Diğer yandan bu kadar artan veri karşısında oluşan konjüktür karşısında kurumlar nasıl bir fayda üretebiliyor? Aslında durum pek de tahmin edildiği gibi değil. McKinsey’nin yayınlamış olduğu rapor açıkça ortaya koyuyor ki kurumlar mevcutta üretilen verinin sadece çok kısıtlı bir bölümünü değere dönüştürüp kendi iş modellerine adapte edebiliyorlar (MGI, 2016). Verinin artması paralelinde kurumlar bu verileri faydaya dönüştürmek için çalışmalarda bulunmaktalar – ki burada “veri analitiği”den söz edilmektedir. Yine McKinsey’e göre artan veri ve bu verinin değere dönüştürme eforu olarak adlandırabileceğimiz veri analitiği; mevcut iş modellerini yıkıp tekrar baştan yaratabilmektedir. Bu kapsamda (1)radikal kişiselleştirme (2)veri odaklı – gerçek zamanlı karar verme gibi başlıca arketipler kurumların yaşam döngülerine dahil olacağından bahseilmektedir (MGI, 2016). Veri analitiği çalışmalarının farklı amaçlar ve sektörler için uygulama alanlarına sahip olduğundan bahsedilmektedir. Örneğin; veri analitiği çalışmaları ile geçmiş verileri inceleyip anlamlandırabilir (descriptive analytics), geleceğe yönelik tahminler geliştirebilir (predictive analytics), geleceğe yönelik geliştirilen tahminleri modelleyip ve simule edip aksiyona yönelik planların oluşturulması sağlanabilir (prescriptive analytics) (IBM, 2013). Faruk Eczacıbaşı son yayınladığı kitabında veri uygulamalarının birey ve toplum üzerindeki etkisini şöyle yorumluyor: “Yapay zekânın yarattığı olanaklardan da yararlanarak gelen ham verilerin işlenmesi tüketicinin, bireyin, hatta toplumların davranışlarının yeniden analiz edilmesine yarıyor” (Eczacıbaşı, 2018). Veri analitiği; bankacılık, iletişim, telekomunikasyon, sağlık, eğitim, devlet, sigortacılık, ulaşım, perakende gibi hemen hemen tüm sektörlerde ve satış, pazarlama, finans, operasyon, insan kaynakları gibi tüm fonksiyonlarda uygulama alanına sahiptir. Bu geniş yelpaze altında yapılacak tüm veri analitiği çalışmaları artan rekabet koşulları altında şirketlerin bir adım daha öne çıkmasında önemli rol oynayacaktır. Başlangıç Noktası’nda kurduğumuz Veri Analitiği Topluluğu ile birlikte, tecrübelerimizi ve görüşlerimizi paylaşarak hem online hem de offline’da bir araya gelerek birbimize destek olabileceğimiz bir topluluk oluşturduk. Sizlerin katkısı ile veri analitiğini daha iyi anlamlandırmayı hedefliyoruz.

Esneklik

Veri analitiği çalışmaları yüksek esneklik gerektirmektedir. Bir çok farklı veri setini içeren (örn. yer, mekan, veri tipi, zaman, vb.) ve bir çok değişkenin bulunduğu bir ortamda yüksek çeviklik kaabiliyetini temel şart koşturan uygulama alanı olarak karşımıza çıkmaktadır (Morgan, 2015). 1990’lı yıllardaki uygulamaları Analitik 1.0 olarak isimlendirirsek; dönemin uygulamalarında esneklik söz konusu olduğu söylenemez. Veriler, sabit ve taşınamaz halde, birbirleri ile entegre olmayan ve farklı formatlarda mevcut olup; elde oluşan verilerden anlamlı sonuçların oluşturulması oldukça ciddi bir mesele haline dönüşmüştür. 2000’li yılların başında ise, artık Analitik 2.0’dan söz edilmey başlanmaktadır. Bu yıllarda, sosyal medya platformlarının durdurulamaz yükselişi neticesinde veri kalabalığı artık anlamlı bir hale dönüştürülmeliydi. Bu da; Hadoop gibi entegre, gerçek zamanlı ve çevik sistemlerin doğmasına diğer bir deyişle esneklikte yeni bir pencere açılmasına sebep oldu. Günümüz ve sonrasına da bakacak olursak, Analitik 3.0 çağına girdik denilmektedir. Sistemler üstü entegrasyonun getirmiş olduğu üst seviye birliktelik sonucu; gerçek zamanlı ve kişiselleştirilmiş müşteri deneyimi için mevcut ve tahmin edilen verilerin modellenmesi sağlanmaktadır. Bunun sonucunda da alınacak aksiyon planları ile temel hedef olan müşteri deneyimini en üst seviyeye taşınması amaç edilmektedir. Özce; veri analitiği uygulamalarının başarısı esneklik seviyesi ile doğru orantılıdır.

Yakınsama

Veri analitiği günümüzün popüler konularından biri olabilir ancak, konunun gelişim sürecini anlamak oldukça önemli olup; geçmişten günümüze ne gibi adımlardan geçtiğini incelemiş olmak önemlidir. Veri analitiği’nin temeli, “veri” ile başlamaktadır. Elimizde veri olmadan, ne geçmişi, ne mevcutu ne de geleceği anlamlandırıp, modelleyebilir ve tahminler geliştirebiliriz. Bu sebeple; konunun kökenine inmek için, MÖ. 3000 civarında Mezopotamya bölgesinde yaşamış Babil’lere kadar uzanmamız kaçınılmazdır. Tarihte ilk olarak veri yönetimini yapmaya başlamış olan Babil’ler, nüfus sayımını, kölelerin sayımı ve sağlık durumlarını, gıda sayısını, askeri durum için elverişli olan erkek nüfus sayısını kaydetmiş ve bu verilere göre aksiyon planlarını geliştirmişlerdir (Background Books: Statistics, 1985). Günümüze hızlıca yaklaştığımızda, manuel olarak yapılan veri yönetiminin ilk kez otomatik olarak yapılmasını sağlayacak ilk kartlı veri işleme sisteminin gelişimi 1890 yılında karşımıza çıkıyor. Herman Hollerith’in mucidi olduğu bu sistem; daha sonralarında yine tarafınca kurulan ve günümüzde öncü teknoloji devlerinden IBM’in ürün ve hizmetlerine temel teşkil ettiğini görebiliyoruz. (Columbia University Publications) Yaklaşık 45 yıl sonra, 1935’te ABD Dönem Başkanı Franklin D. Roosevelt’in yayınlamış olduğu “Sosyal Güvenlik Kanunu” (Social Security Act) ile yaklaşık 30 milyon işçi ve işveren verilerinin toplanması ve depolanması projesi IBM’e tarafından yapılıyor. Böylece, tarihin ilk ve geniş kapsamı veri yönetim çalışası bu tarihte tamamlanmış oluyor (Social Security Act, 1935). 1960’lı yıllara geldiğimizde ise, ABD Ulusal Güvenlik Ajansı, 12bin çalışanı ile birlikte Soğuk Savaş dönemindeki verilerin analizi için büyük bir efor harcamaya başlıyor. Böylece tarihteki ilk geniş çaplı veri analizi eforu harcanmış oluyor (Freidman, 2012). Yakın tarihe biraz daha yaklaştığımızda, mevcutta çok popülar bir kavram olan “büyük veri”, ilk olarak karşımıza 1990 yılında NASA araştırma ekibinin söylemi ile ortaya çıkmaktadır. 2000’li yıllarda ise sosyal medya patlamasının sonuçlarından en önemlisi; veri miktarı ve çeşitliliğindeki artış neticesinde veri üzerine sorulan temel soruları daha da karmaşık hale getirmiştir. 2000’li yıllara kadar, “ne oldu?” sorusuna cevap aranırken artık, “neden oldu?”, “ne olacak?” ve “tahmin edilen olası duruma karşı nasıl aksiyon alabilirim?” gibi soruların da cevabı aranmaya başlandı. Böylece geçmişe yakınsayarak geleceğin veri analitiği bakış açışının temeli de atılmış olmaktadır.

Ağ Yapısı

2017 yılında gerçekleşen Gartner - Veri ve Analitik Etkinliğinde, TCP/IP’nin bulunmasının ardından geçmiş 20 yıl içerisinde internetin iş modelleri üzerindeki yıkıcı etkisinin ardından sıranın veri analitiği uygulamalarında olduğu belirtilmektedir. Veri analitiğinin mevcut iş modelleri üzerindeki etkisi önümüzdeki 20 yılı kapsayan yakın gelecekte hissedilebilir bir ölçüde artacağının altı çizilmektedir. Öğrenebilir algoritma ve cihazlar ile birlikte yapay zekanın hızlı gelişim sürecine şahit olduğumuz bu günlerde geleceği tahminlemek o kadar da zor olmasa gerek. Süreç odaklı bir dünyadan veri odaklı bir dünyaya geçilen yakın dönemde; tüm iş fonksiyonlarındaki veri-merkezli değişim kolayca gözlenmektedir. (Eliott, 2018) Bunun sonucu olarak da ağ yapısının önemi daha anlaşılmaktadır. Saliseler içerisinde gerçek zamanlı veri odaklı karar verme mekanizmaların gerçekleştirilebilmesindeki ana başarı faktörü; kesintisiz ve kusursuz ağ yapısına sahip veri analitiği uygulamaları olduğu kolayca yorumlanabilir.

Karanlık Taraf

Veri ve veri analitiğinin kötüye kullanımının bir çok boyutundan bahsedilebilir. En önemli boyutlarından biri veri’nin izinsiz kullanımı olarak görülebilir. Çok değil, yakın zamanda Facebook – Cambridge Analytica Veri Skandalı’na bakalım. Facebook’un 87 milyon Amerikan Vatandaşı’nın verisini veri analitiği şirketi olan Cambridge Analytica’ya satmış olmasının sonucunda Amerika’daki başkanlık seçimlerini etkilemiş olduğu hepimiz tarafınca bilinen bir gelişme (Bloomberg, 2018). Peki, görülmez bir el tarafından elde edilen verilerin, hakkınızda sürekli tahmin geliştirip sizi de bir “model” içerisine sokması ne kadar hoşunuza gider? Gerçek zamanlı uygulamaların tabana daha fazla yayınlaşması ile birlikte organize olan veriler (yaş, cüzdan payı, satış adedi, vb.) ve organize olmayan verilerin (duygu durumu, gibi) ağlar aracılığı ile birleştirilip; yorumlanması sonucu sizin hakkınızda sürekli ve rahatsız edici bir düzeyde sistemin odağına koyulmanız ne kadar rahatsızlık verir? Şirketlerin ileri veri analitiği uygulamaları, sizi müşteri değil ürün haline getirmektedir. Bu sebeplerden dolayıdır ki gelecekte de veri kullananları iki kategoride sınıflandırabileceğiz: (1) Veriyi iyi amaçlı, transparan ve kişisel veriye saygı duyarak kullananlar (2) Gizlilik ve güvenliği ikincil öncelik edinip; asıl amaç olarak veriyi uçtan uca yönetmeyi temel ilke edinerek veri imparatorluğu kurgulayanlar. (The Dark Side of Big Data, 2014) Artık tarafınızı seçme vakti geldi. Bibliography (1985). Background Books: Statistics. The Wilson Quarterly . Bloomberg. (2018). Facebook Cambridge Analytica Scandal: 10 Questions Answered. Fortune. Cole, N. (2018). Here's Why Big Data Is Going to Love Blockchain Technology. Inc. (tarih yok). Columbia University Publications. http://www.columbia.edu/cu/computinghistory/hollerith.html. David Reinsel, J. G. (2017). The Evolution of Data to Life-Critical. IDC. Eczacıbaşı, F. (2018). Daha Yeni Başlıyor. Koç Üniversitesi Yayınları. Eliott, T. (2018). Why Analytics Will Be At Least 4 Times More Important In 2018. DigitalMag. Freidman, U. (2012). Big Data: A Short History. Foreignpolicy.com. IBM, S. (2013). Descriptive, predictive, prescriptive: Transforming asset and facilities management with analytics. IBM. MGI. (2016). The Age of Analytics. McKinsey Global Institute. Morgan, L. (2015). Flexibility is critical for Big Data analytics. SD Times. OECD. (2014). Data-driven Innovation for Growth and Well-being . OECD. (1935). Social Security Act. (2014). The Dark Side of Big Data. University of Wharton.

Tanım
Esneklik
Yakınsama
Ağ Yapısı
Karanlık Taraf

  

Tüm değişiklikler kaydediliyor.
Etiketler

    

Tüm değişiklikler kaydediliyor.
Topluluğunun ilk adımlarını atma zamanı. Hemen ilk başlığını oluştur!
Henüz etkinlik eklenmemiş.
alanını değiştirdi.
ekledi.
Eski

Yeni