Başarının anahtarı büyük veri
Günümüzün rekabetçi iş dünyasında veri, başarı yolunda kritik bir değer. Veri, müşterinin tutumuyla ilgili bilgileri şekillendirebiliyor, operasyon kalitesi ve maliyetlerini geliştirmeye yardımcı olabiliyor, yenilikçi ürün özeliklerini destekleyebiliyor. Tüm bunların sonucunda karlılığı da artırabiliyor. Örneğin Climate Corporation, her gün 2,5 milyon konumdaki hava durumu ölçümlerini analiz ediyor ve büyük iklim modelleri üzerinde tahminlerde bulunuyor. Bu verileri, 10 trilyon hava durumu simülasyon noktası oluşturmak için 150 milyar toprak gözlemiyle birlikte işliyor. Bu analizlerin sonucunda 3 trilyon dolar değerindeki global tarım endüstrisini kötü hava şartlarının finansal etkisinden koruyan bir sezonluk hava durumu sigorta programı oluşturuluyor.
Her tıklama, beğenme, tweet, konum bildirme, paylaşımla veri üretiyoruz. Bulut bilişim büyük miktarlardaki verileri çabuk ve maliyeti düşük olacak şekilde analiz etme becerisi sağlıyor ve iş zekası elde etmek için kapasite veya bilgi işlem gücüyle sınırlanmıyor. Amazon Web Services Türkiye Ülke Müdürü Murat Yanar’a göre, bulut, talep üzerine sanal olarak sınırsız bir kapasite sağlıyor ve şirketler sadece tükettikleri kaynaklar için ödeme yapıyor. Bunu yaparken toplam maliyeti azaltıyor, kazancı en üst düzeye çıkartıyor ve veri işlemeyi ölçek çapında hızlandırıyor. Esneklik, yani teknoloji altyapısı kaynaklarını talep üzerine genişletme veya küçültme becerisi, bulut bilgi işlemin maliyet faydaları sağlayan temel bir özelliği. Örneğin, büyük veriyi klasik bir tesis kurulumunda işlemek için şirketler, gelecekte ihtiyaç duyabilecekleri maksimum güç kadarını devreye almalı. Büyük veriyi bulutta işlemek için şirketler, o sırada ne kadar kapasiteye ihtiyaçları olduğuna bağlı olarak altyapı kaynaklarını genişletebilir veya azaltabilirler. Fiziksel sunucular ve depolama satın almak, tedarik etmek ve kurmak için haftalar veya aylarca beklemeleri gerekmez. Bulut bilgi işlem ile şirketler yüzlerce veya binlerce sunucuyu saatler içinde hazır hale getirebilir.
Güvenlik, paylaşımlı bir sorumluluk gerektirir
Bulut bilişimi büyük veri analizlerinde kullanırken, müşterilerimizin çoğu beynelmilel sertifikasyon ve akreditasyonu elde etmiş ve sağladıkları servisin güvenli olduğunu ispatlamış iş ortakları ile çalışmalarının önemli olduğunu düşünüyoruz. Bu sertifikasyon ve akreditasyonlar, sıkı regülasyona tabi kamu, finans ve sağlık endüstrilerindeki güvenlik kontrollerini ölçmekte olan üçüncü parti denetçiler tarafından yapılmaktadır.
Bu standartlar içinde en itibarlı ve uygulanabilir olanı ISO 27001. Uluslararası Standartlar Organizasyonu tarafından geliştirilen ISO 27001 kontrolleri, dünyada birçok şirket tarafından kabul görmektedir. Bulut altyapı sağlayıcıları aynı zamanda, Servis Organizasyon Kontrolleri 1, 2 ve 3 (SOC 1, 2 ve 3) denetimlerinden de geçmelidir. Denetçilerin bulut sağlayıcısının teknoloji altyapısının güvenliğini onaylayabilmeleri, CISO’ların bulut teknolojilerini büyük veri analizi için değerlendirmelerine yardım eder. Müşteriler aynı zamanda kendi endüstrileri için geçerli olan sertifikasyon ve akreditasyonları da görmek isteyebilirler. Bunların iki örneği, kredi kartı ödemeleri endüstrisinde uygulanan PCI DSS Level 1 sertifikasyonu ve sağlık endüstrisinde uygulanan Health Insurance Portability and Accountability Act (HIPAA)’dır. Amazon Web Services, tüm bu sertifikasyon ve akreditasyonlara sahiptir.
Bulut bilişim daha yüksek seviyede fiziksel güvenlik sağlarken güvenliğin müşteri ve bulut sağlayıcısı arasında paylaşımlı bir sorumluluk olduğunu da belirtmek isteriz. Müşterilerimiz, bulut bilişimi büyük veri analizleri için kullanırken, uygulamaları için gereken güvenliği göz önünde bulundurmalıdırlar. Müşterilerimiz kendi verilerini korumak için içeriklerini şifreleyebilirler ve şifrelenen içerikler şifre çözücü anahtarlar olmadan erişilemez halde olacaktır.
Veriler tutarlı olmalı
İyi verilere sahip olmak genellikle çok fazla veriye sahip olmaktan iyidir. Yanlış veya tutarsız veriler tutarsız sonuçlara neden olabiliyor. Doğru ve tutarlı veriler elde etmek için bu verileri zenginleştirmek önemlidir. Bu zenginleştirme temizlik, doğrulama, normalleştirme, sonuç çıkarma ve birleştirme faaliyetlerini içeriyor. Şirketler komut dosyaları ve programlar aracılığıyla verilerini programatik olarak zenginleştirebilir ancak fotoğraf etiketleme, katalog normalleştirme ve hatta yazım denetimi gibi bazı veri analizlerinde doğruluk için insan müdahalesi gerekli. Büyük veri analizi işlerini küçük görevlere bölmek hızlı bir şekilde tamamlanmalarını sağlıyor ve bilgisayarların kolayca yapmasının güç olduğu bir şekilde veri kalitesi ve güvenilirliğin farkına varıyor.
Büyük veri analizini verimli bir şekilde gerçekleştirmede ise en büyük zorluklar arasında donanımın kurulumu ve yönetimi, esnek bir şekilde aşağı ve yukarı ölçeklendirme kapasitesi ve birden fazla kaynaktan veri toplama bulunuyor. Açık kaynaklı Hadoop platformu ve araç ekosistemi, büyüyen veri hacimlerini düzenlemek için yatay biçimde ölçeklendirilebilir olduğundan ve aynı ortamdaki yapılandırılmamış ve yapılandırılmış verileri işleyebildiğinden bu sorunları çözmeye yardımcı olabilir.
Büyük ölçekli veri analitiklerini kolay bir şekilde yapmak için verileri iki katmanda optimum hale getirin. Öncelikle büyük veri setlerini paralel olarak analiz etmek için bir Yığın katmanı kullanın ve ardından toplanan verileri Sorgu katmanı denilen NoSQL veri deposunda depolayın. Bu formatta veriler girdi üzerinde düzenlenip endekslendiğinden şirketler, büyük veri setlerini sürekli ve gerçek zamanlı olarak sorgulayabilir. Bu özellikle büyük verilerinizi görselleştirmek istediğinizde kullanışlı olacak.