Kimlik avına karşı ChatGPT etkili (mi?)
Kaspersky uzmanları, ChatGPT’nin kimlik avı bağlantılarını algılama yeteneğini inceleyen bir araştırma yayınladı. Araştırma, ChatGPT’nin kimlik avı e-postaları oluşturma ve kötü amaçlı yazılım yazma konusunda yetenekli olduğunu gösterdi. Ancak, kötü amaçlı bağlantıları algılama konusundaki etkinliği hala sınırlı olduğunu ortaya koydu. Araştırma, ChatGPT’nin kimlik avı hakkında birçok bilgiye sahip olmasına rağmen, kimlik avı saldırısının hedefini tahmin edebilmesine rağmen, yüzde 64’e varan yüksek yanlış pozitif oranlarına sahip olduğunu ortaya koydu ve ChatGPT’nin çoğu zaman, kararlarını haklı çıkarmak için hayali açıklamalar ve yanlış kanıtlar ürettiğini gösterdi.
Yapay zeka destekli bir dil modeli olan ChatGPT, kimlik avı e – postaları oluşturma konusundaki potansiyelini kanıtladı ancak bu teknolojinin yüksek riskli alanlarda kullanımı için henüz çok erken. Bu nedenle ChatGPT siber güvenlik dünyasında tartışma konusu oldu. Kaspersky uzmanları, ChatGPT’nin kimlik avı bağlantılarını tespit etme yeteneğini ve eğitim sırasında öğrendiği siber güvenlik bilgisini ortaya çıkarmak için deney yaptı. Şirketin uzmanları, ChatGPT’ye güç veren model olan gpt-3.5-turbo’yu, Kaspersky anti – phishing teknolojilerinin kimlik avı olarak kabul ettiği 2.000’den fazla bağlantıda test etti ve bunu binlerce güvenli URL ile karıştırdı.
Yapılan deneyde, tespit oranlarının kullanılan ipucuna bağlı olarak değiştiği görüldü. ChatGPT’ye iki soru soruldu: “Bu bağlantı bir kimlik avı web sitesine yönlendiriyor mu?” ve “Bu bağlantıyı ziyaret etmek güvenli mi?”. Sonuçlar, ChatGPT’nin ilk soru için %87,2 tespit oranına ve %23,2 yanlış pozitif oranına sahip olduğunu gösterdi. “Bu bağlantıyı ziyaret etmek güvenli mi?” sorusunda ise %93,8’lik daha yüksek bir tespit oranı görülürken %64,3’lük daha yüksek bir yanlış pozitif oranına sahip olduğu tespit edildi. Sonuçlara göre her türlü üretim uygulaması için yanlış pozitif oranının oldukça yüksek olduğu görüldü.
Facebook, TikTok ve Google’da başarı
Siber saldırganlar genellikle kimlik avı bağlantılarında popüler markalardan bahsederek kullanıcıları aldatmaya çalışırlar. Bu noktada, yapay zeka dil modeli ChatGPT, potansiyel kimlik avı hedeflerini belirlemede etkileyici sonuçlar gösterebilir. Örneğin, Facebook, TikTok, Google gibi büyük teknoloji şirketleri, Amazon, Steam gibi pazar yerleri ve dünyanın dört bir yanındaki URL’lerin çoğundan ek eğitim almadan başarıyla sonuçlar elde edebilir.
Ancak, yapılan deneyler, ChatGPT’nin bağlantının kötü amaçlı olup olmadığına karar vermede ciddi sorunlar yaşayabileceğini gösteriyor. Bu durum, dil modellerinin bilinen sınırlamalarını ve yanlış sonuçlar üretebileceğini ortaya koydu. Sonuç olarak, ChatGPT, kimlik avı saldırılarının sınıflandırılması ve araştırılması konusunda bazı yardımcı özelliklere sahip olabilir, ancak kesin sonuçlar için dikkatli bir değerlendirme ve insan gözetimi gerekebilir. ChatGPT, saldırıların sınıflandırılması ve araştırılması konusunda potansiyel gösterse de, hala iyileştirilmeye ve geliştirilmeye ihtiyaç duyan bir alan olduğunu görülüyor.
Aşağıda ChatGPT tarafından sağlanan yanıltıcı açıklamalara örnekler verilmiştir:
Kaspersky Veri Bilimcisi Vladislav Tushkanov, “ChatGPT, analistlerin kimlik avı saldırılarını tespit etmelerine yardımcı olmakta umut vaat ediyor, ancak dil modellerinin hâlâ sınırlamaları olduğu hatırlamakta fayda var. ChatGPT kimlik avı saldırıları hakkında akıl yürütme ve potansiyel hedefleri ayıklama söz konusu olduğunda, stajyer düzeydeki bir kimlik avı analistiyle eşit olsa da, rastgele çıktılar üretme eğiliminde. Bu nedenle, bu teknoloji henüz siber güvenlik alanında devrim yaratmasa da, topluluk için yararlı araçlar olabilir” dedi.