İş Bankası’ndan ilk Türkçe büyük dil modeli: İşGPT
Dijital çağ ile birlikte yapay zeka teknolojilerinin kullanım alanı gün geçtikçe artıyor. Büyük veri kümeleri üzerinden hızlı ve doğru analizler yaparak geleceğe yönelik tahminlerde bulunma yeteneği ile ön plana çıkan yapay zeka, finans sektörüne de yön veriyor. İş Bankası, geliştirdiği ilk Türkçe Büyük Dil Modeli İşGPT ile bankacılık sektöründe yapay zeka alanında yerelleştirme örneği sergiliyor.
İş Bankası Yapay Zeka Bölümü tarafından geliştirilen İşGPT, mevzuat, dış ticaret, performans yönetimi, içerik yapılandırması gibi çeşitli uygulama alanlarında aktif olarak tüm çalışanları tarafından kullanılabiliyor. Metin özetleme, içerik üzerinden soru cevaplama, sınıflandırma, İsimlendirilmiş Varlık Tanıma (NER) ve çeviri gibi ileri düzeyde yapay zeka işlevleri bulunan İşGPT, sorulan soruların %91’ine hızlı ve doğru cevap verme başarısı gösteriyor. Banka tüm bu özellikler ile müşteri hizmetleri süreçlerini hızlandırmayı ve çalışanlarının verimliliğini daha da artırmayı hedefliyor.
“Teknolojik bağımsızlığımızı pekiştiren bir yenilik”
İş Bankası Genel Müdür Yardımcısı Sabri Gökmenler, bankanın kuruluşundan itibaren geleceği şekillendiren teknolojiye yatırım yaptığının altını çizerek “ Bankamız, yetkin insan kaynağımız ve güçlü teknolojik alt yapımızla bu projeyi bulut tabanlı hazır modeller kullanmadan hayata geçirdi. İşGPT, bankacılık işlemlerinde hız ve doğruluk sağlarken, müşteri ve çalışan deneyimini üst seviyelere taşıyor. Bu projede verilerimizin ülke dışına çıkmamasına azami özen gösteriliyor. 100. yılımızda başlatılan bu yenilikle, İş Bankası teknolojik bağımsızlığımızı pekiştiriyor ve Türk finans sektörüne öncülük etmeyi sürdürüyor.” diye konuştu.
Hassas eğitim süreci
Modelin ince ayar (FineTune) sürecinde çeşitli sektörlerden ve alanlardan derlenmiş geniş bir doküman seti kullanılarak toplamda 1.5 milyondan fazla doküman, modelin eğitimi için işlendi. Bu dokümanlar; finans, sağlık, hukuk, eğitim ve teknoloji gibi çeşitli alanları kapsayan ve güncel bilgileri içeren kaynaklardan seçildi.
Eğitim sürecinde kullanılan toplam token sayısı 60 milyar olarak hesaplandı. Bu yüksek token sayısı, modelin geniş bir dil yelpazesine ve karmaşık dil yapılarına uyum sağlayabilmesi için tercih edildi.
Modelin eğitimi, toplam 1200 saatlik bir süreçte tamamlandı. Bu süre zarfında, modelin performansını optimize etmek ve en yüksek doğruluğa ulaşmak için detaylı hiperparametre ayarlamaları yapıldı.