Büyük Veri: Tanımlar, Oluşum, Analiz ve Gelecek Etkileri
T3 Podcast'in bu bölümünde Nizamettin Ordulu'yu ağırlıyoruz. Bilgi teknolojileri uzmanı ve Ordulu Bilgi Teknolojileri'nin kurucusu olan Ordulu, büyük verinin ne olduğunu, nasıl oluştuğunu, analiz süreçlerini ve yapay zeka ile olan ayrılmaz ilişkisini açıklıyor.
T3 Podcast 1.Sezon 17.Bölüm Nizameddin Ordulu (T3 Vakfı)
Nizamettin Ordulu'nun Özgeçmişi ve Çalışma Alanları
Bilgisayar mühendisliği ve matematik eğitimi alan Nizamettin Ordulu, yüksek lisansını MIT'de tamamlamıştır. Üç buçuk yıl boyunca Facebook'ta veritabanı geliştiricisi olarak çalışmış ve veritabanı sistemlerinin verimliliğini artırmıştır. Türkiye'ye döndükten sonra kendi şirketini kurarak sağlık sektöründe yapay zeka sistemleri ve savunma sanayiinde harita tabanlı veri sistemleri gibi projeler geliştirmektedir.
Büyük Veri Tanımı ve Temel Özellikleri
Büyük veri, geleneksel veritabanlarının aksine, önceden bir şema belirlenmeden, yapılandırılmış, yarı yapılandırılmış ve yapılandırılmamış tüm veri türlerini kapsayan geniş veri kümeleridir. Büyük verinin ortaya çıkmasının en önemli nedenleri, farklı kaynaklardan gelen çeşitli ve büyük hacimli verilerin esnek bir yapıda saklanması ve işlenmesi ihtiyacıdır.
Büyük Veri Oluşturma ve Toplama Süreci
Büyük veri toplamanın temel amacı, toplanan verilerle bir model oluşturarak iş kararları alabilmektir. Bu süreç, hedeflerin belirlenmesi, ham verinin toplanması, ayıklanması, yapısal hale getirilmesi, analiz edilmesi ve sonuçların görselleştirilerek karar alınması gibi adımları içerir. Bu süreç, eksikliklerin tespit edilerek sürekli olarak iyileştirildiği döngüsel bir yapıya sahiptir.
Büyük Veri Analizinde Kullanılan Yöntemler ve Araçlar
Büyük verinin depolanması ve analizi için çeşitli teknolojiler kullanılmaktadır:
- Hadoop: Google'ın sisteminden esinlenilerek geliştirilen, verinin birden fazla sunucuda dağıtık olarak depolanmasını ve işlenmesini sağlayan açık kaynaklı bir çerçevedir.
- NoSQL Veritabanları: MongoDB ve Cassandra gibi, esnek şemaya sahip veritabanlarıdır.
- Spark: Hadoop üzerinde hızlı sorgular yazmayı sağlayan güçlü bir analiz aracıdır.
- Görselleştirme Araçları: Tableau gibi yazılımlar, analiz sonuçlarını anlaşılır hale getirerek karar alma süreçlerini kolaylaştırır.
Büyük Veri ve Yapay Zekanın Gelecek Etkileri
Büyük veri ve yapay zeka, telefonlardaki klavye tahminlerinden otonom araçlara, e-ticaretteki ürün önerilerinden giyilebilir teknolojilere kadar hayatımızın her alanını kökten değiştirmektedir. Gelecekte, giyilebilir teknolojilerden elde edilen verilere göre kişiye özel ürünler tasarlanması gibi uygulamalarla büyük verinin etkisi daha da yaygınlaşacaktır.
Veri Bilimi Alanına Yönelmek İsteyen Gençlere Tavsiyeler
Nizamettin Ordulu, veri bilimine ilgi duyan gençlere üç temel tavsiyede bulunuyor:
- İstatistik temellerini güçlendirmek: Veri analizi büyük ölçüde istatistiksel metotlara dayandığı için bu temel bilgilerin sağlam olması gerekir.
- Büyük veri sistemlerinin çalışma mantığını anlamak: Hadoop gibi dağıtık sistemlerin nasıl çalıştığı ve veri kaybı gibi durumlarda nasıl davrandığı konusunda bilgi sahibi olmak önemlidir.
- Hızlı veri toplama ve işleme becerileri geliştirmek: Pratik yaparak ve kişisel projelerle (örn. Wikipedia'dan veri çekme) bu becerileri artırmak, bu alanda başarılı olmanın anahtarıdır.