Sigorta Bilgi Merkezi CTO’su İbrahim Gökalp: “DOĞRULAMALAR YAPIP PAYLAŞIYORUZ”
“Sigorta sektöründe ciddi bir veri hazinesine sahibiz ve bu verileri yapay zeka ile işleyerek anlamlı hale getirmek için çalışıyoruz. Elimizdeki bütün kaza bilgilerini kullanıyoruz. Çünkü Türkiye’de her yıl ortalama 800 bin ile 1 milyon arasında maddi hasarlı trafik kazası meydana geliyor. Son 10 yılın bütün kaza bilgilerini derleyerek 10 milyona yakın kaza tutanağının verilerine dayanan bir eğitim modeli oluşturduk. Gelen bütün poliçe, hasar bilgileri, yani hangi kazada ne kadarlık bir hasar oluştu gibi başlıkların tümünün verisine sahibiz. Bu doğrultuda Ar-Ge çalışmaları ile yaklaşık 1500 parametre içeren bir yapay zeka modeli geliştirdik.
Bu model sayesinde, şu anda yaklaşık %86-%87 doğruluk oranıyla bir sigortalının önümüzdeki poliçe döneminde ne büyüklükte bir kaza yapabileceğini tahmin edebiliyoruz. Ayrıca, bu kazaların gerçek olup olmadığını algılayacak bir algoritma üzerinde de çalışıyoruz. Çünkü çok fazla suistimal var ve sigorta sektöründeki suistimallerin önüne geçmek adına bu çalışmalar büyük önem taşıyor. Sigorta şirketleri, katkı payı ödeyerek bizden bu bilgileri alıyor ve bu destek sayesinde sektör için değer yaratan projeler üretiyoruz.
Risk skorlama süreçlerimizi geliştirmek için de son onay aşamasındayız. Kaza fotoğraflarına bakarak hasarın ne büyüklükte olduğu ve hangi parçaların değişebileceği üzerine bir model üzerinde çalışıyoruz. Bu analizlerde GPU’lardan faydalanıyoruz.
Yakın zamanda Mevzuata yönelik bir asistan geliştirdik ve bunu da sigorta şirketleriyle paylaşacağız. Kademeli olarak ufak bir versiyonu ile acenteler, brokerlar ve hasar danışmanlık şirketleri gibi sektörün diğer aktörlerinin de faydalanabileceği şekilde yaygınlaştırmayı hedefliyoruz. Hepsi kritik, hassas bilgi. Dolayısıyla hiçbirini buluta çıkartmamız mümkün gözükmüyor şu anda. O yüzden bütün çalışmalar kendi özel bulutumuz üzerinde. Genel buluttaki gücü kullanabileceğimiz ama bilgiyi vermeyeceğimiz bir yöntem üzerinde araştırmalarımız devam ediyor.
Ekiplerimiz, Llama modelleri üzerinde yoğun bir şekilde çalışıyor ve bu modelleri sürekli olarak eğitiyor. Veri merkezlerimizdeki güçlü GPU altyapısı sayesinde, her ay gelen verilerle eğitim süreçlerini baştan başlatıyoruz. Geliştirdiğimiz 1500 parametreyi arttırmaya çalışıyoruz. Aralarındaki ilişkileri test etmek için sürekli olarak modellerimizi güncelliyoruz.”