Veri çeşitleniyor, büyük veri imdada yetişiyor
Veri miktarını artırarak çeşitlendiren en önemli etkenlerin başında M2M, web 2.0 ile etkileşimli iletişim modelinin yerleşmesi ve fiziksel dünyada yaptığımız hemen her hareketin sayısal ortamlara aktarılmaya başlaması geliyor. Verilerin toplanarak anlamlandırılması, şirketlerin pozisyon almalarını sağlayacak yapıya kavuşturulması büyük veri kavramının temelini oluşturuyor.Ülkemizde ve dünyada BT sektörünün en sıcak konusu “Büyük Veri”, toplanan tüm verilerin anlamlı hale getirilmesini konu alıyor. Bizler de dünya ve ülkemizde bu kavramın geldiği ve geleceği noktayı ele alıyoruz.
İnterpromedya Yayın Grubu tarafından düzenlenen ve BT sektörünün önemli isimlerinin bir araya geldiği ‘Türkiye’den Bölgeyi Yönetenler’ toplantılarının üçüncüsünde “Büyük Veri” konusu ele alındı.
Büyük veri belki de şu anda BT sektörü için en sıcak konuların başında geliyor. 2011’de 1.8 zetabayt veri üretildi ve her iki yılda bir bu verilerin iki katına çıkması bekleniyor. Bu da 2020’de bugünküne oranla 50 kat daha fazla verinin olmasını ifade ediyor. Bu verilerin anlamsız yığınlardan kullanılabilir hale getirilmesi için büyük veri kavramı önem taşıyor.
Büyük verinin piyasa hacmi şu anda 5 milyar dolar civarında. 2017’de 50 milyar dolara yükselmesi beklenen pazarda, yıllık yüzde 58 büyüme bekleniyor. Bu önemli pazarda yer almak için dev şirketler şimdiden birçok satın alma gerçekleştirerek milyarlarca dolar harcıyor.
Bizler de toplantıda ülkemizde ve dünyadaki büyük veri pazarının durumu, sağlık, genetik bilimi, sosyal medya ve yayıncılık sektörü nedeniyle artan veri miktarını, kavramın hangi yönde seyrettiğini sektör şirketlerinin de katılımıyla masaya yatırdık.
İşte bu noktada büyük veri kavramının ortaya çıktığının altını çizen Yunusoğlu, kavramla birlikte üç başlığın öne çıktığını vurguladı: Analitik, bant genişliği, içerik. Yunusoğlu, bu üç başlığın çözülmek için bekleyen ve büyük veri piyasasının büyüdüğü alanlar olduğunu belirtti.
“Yangın hortumundan su içmeye benziyor”
Oracle’ın yaklaşık 7.5 milyar dolara Sun’ı satın almasının ardından şirketin çehresinin oldukça değiştiği görüldü. Bununla kalmayan Oracle, bulut tabanlı yazılım şirketleri RightNow’u 1.5 milyar dolara, Taleo’yu da 1.9 milyar dolara satın aldı. Böylece şirket, yazılım piyasasındaki varlığı oldukça geliştirdi.
Yurtdışında da sıkça kullanılan “yangın hortumundan su içmek” ifadesini kullanan Kuyucu, çok fazla veri olduğunu ancak bunları anlamlandırmanın zor olduğunun altını çizdi. Ayrıca Kuyucu, ortada bulunan verinin ne kadarının anlamlı olduğunun da sorgulanması gerektiğini belirtti.
Milyarlarca tehdit için günlük 1.8 terabayt veri analizi yapılıyor
Bunca veri yığını arasında veri güvenliğinin öne çıktığını ve veri merkezlerinin açık hedef haline dönüştüğünü vurgulayan Aydın, bulut bilişim kavramıyla hemen her cihazda verilerin görülebilmeye başladığını hatırlattı. Böylece senkronizasyon ihtiyacının da hızla arttığının altını çizen Aydın, güvenlik ihtiyacının bu noktalara taşındığını aktardı.
“Büyük veri konusunda istihbarat tarafında önemli yatırımlar bulunurken sağlık sektörüne de önemli bir eğilim görülüyor” diyerek sözlerine başlayan Symantec Bölge Teknoloji Müdürü Burak Sadıç, önümüzdeki dönemde genetik bilimcilerin büyük veri sağlayıcılarının en büyük müşterisi haline dönüşeceğini dile getirdi.
RTÜK kararları nedeniyle ülkemizdeki televizyon kanallarının son bir yıllık yayınlarını saklama zorunluluğu bulunduğunu hatırlatan Sadıç, “Büyük verideki en önemli patlama M2M’in hayatımıza girmesiyle yaşanacak. Diğer elektronik eşyalar ve hatta üzerimizdeki kıyafet bile iletişim halinde veri ortaya çıkarmaya başladığında veri yığınları artacaktır” öngörüsünde bulundu.
Hizmet olarak platform önceliğimiz oldu
2015’te veri merkezi trafiğinin yüzde 76’sı, depolama ve sanal makineler arasında doğrulama gibi işlemlerle bizzat veri merkezinin kendisi tarafından üretilecek. Bu doğrultuda sanallaştırma çözümlerinin de önemi hızla artıyor.
Ekosistem içinde çözüm üreten yaklaşıma ihtiyaç duyuluyor
2010’da yıllık 1.1 zetabayt olan veri merkezi trafiğinin dört kattan fazla artarak 2015’te yıllık 4.8 zetabayta ulaşacağı ve yüzde 34’lük yıllık birleşik büyüme oranı sergileyeceği tahmin ediliyor.
Yapılandırılmamış veri öne çıkıyor
HP geçtiğimiz yıl, birden bire büyük verinin en önemli oyuncularından birine dönüştü. Zira şirket yaklaşık 12 milyar dolarlık yatırım sonucu yapılandırılmamış veri analiz motoru Autonomy’yi satın aldı. Bunun yanında analitik veritabanı yönetim yazılımı üreten Vertica da şirket bünyesine katıldı.
Verinin çeşitliliği büyük veri ihtiyacını doğuruyor
Türkiye’de özellikle yazılım alanında piyasa verilerine ulaşmak gerçekten çok zor. Büyük veri de bu piyasanın bir parçasını oluşturuyor. Henüz kamunun yeterince ilgisini çekemeyen bu sektörün küresel hacminin 50 milyar dolara kadar genişleyeceğini öngörülerden okuyabilsek de ne kadarının ülkemizde gerçekleşeceği bilinmiyor.
Yine de gayri safi milli hasılaya oranla ülkemizde yazılım harcamaları oldukça düşük. Her şeyden önce bu oranın artması gerekiyor.
“Türkiye’de ‘büyük veri’ sorunu bulunmuyor”
Dell şirketi kurucusu Michael Dell’in şirketin rotasını sadece bir bilgisayar üreticisi olmaktan uçtan uça çözümler sunan bir BT çözümleri şirketine doğru yönlendirdi. Şirket geçtiğimiz iki yıl içerisinde tam 16 satın alma yaparak yazılım alanına verdiği önemi gösterdi. Nisan ayında şirket 4 günde 3 yazılım şirketi satın aldı.
Medya sektöründeki verinin şu anda büyük veri olarak dikkat çektiğini aktaran Ergür, “Video arşivleri, uydudan alınan meteoroloji ya da sismik verilerin sürekli yaratılmasıyla yapılandırılmamış veri artıyor” örneğini verdi.
Toplantıdan çıkan sonuçlar şu şekilde:
“ Piyasada yazılım envanterinin yeterince bilinebilmesi için veri toplanması gerekiyor.
“ Yazılım sektörünün anlaşılması gerekiyor. Müşteriler fiziksel olarak bir ürün aldığında memnun olurken, yazılımla aynı memnuniyet sağlanamıyor. Bu da en başka önyargılı bir bakış açısı oluşturuyor.
“ Yazılım sağlayıcılarının birbirlerini engellemeden yollarına devam etmesine ihtiyaç duyuluyor. Düşük talep düzeyinde fiyat rekabeti sektörün büyümesinin önüne geçiyor.
“ Türkiye’de büyük veri ihtiyacının en çok duyulduğu sektörlerin telekomünikasyon, bankacılık ve kamu olduğu görüldü.
“ Veri hacmi büyük olmasa da veri çeşitliliği artıyor. Bu nedenle yapılandırılmamış verinin işlenebilmesi için donanım ve yazılım kombinasyonu gerekiyor.
“ Kamunun öncü olarak vatandaşların bilgilerini değerlendirerek büyük veri çözümlerine yatırımda bulunabilir.
“ İçerik üretmek gerekiyor. Zira sadece Facebook üzerinde ürettiğimiz veri, sıradanlığın önüne geçmiyor. Oysa büyük veri sadece pazarlama amaçlı değil, her alanda gelişim için kullanılabilir.
Hadoop Nedir?
Büyük verinin en fazla kullanılan platformu şu anda Hadoop. Ülkemizde de elektronik ticaret alanında Hadoop kullanan şirketler bulunuyor. Peki nedir bu Hadoop?
Hadoop, büyük verinin işlenmesini sağlayacak yazılımların üzerinde çalışmasını sağlayan, bunu devasa donanımlar üzerinde dağıtabilen bir veri platformudur. Bu platform açık kaynak kodlu olduğu için hızla gelişiyor. Google, Yahoo ve Facebook gibi yeni nesil ve çok fazla veri analiz ihtiyacı duyan şirketler bu platformu kullanıyor.
Yapılandırılmamış veri nedir?
Satır ve sütun hesabı yapılmadan, şirketlerin kullanamayacağı tüm veriler aslında yapılandırılmamış veriyi oluşturuyor. Tüm videolar, Twitter mesajları, Facebook paylaşımları, kişilerin hareketleri, uydu verileri ya da aslında etrafımızda gördüğümüz ve bir şekilde algılanabilen her hareket bir veriyi oluşturuyor.
Bu verilerin bir araya getirilerek anlamlı hale getirilmesi ve şirketler tarafından kullanılabilir olması büyük veriyi oluşturuyor.