Polise veri analizi
Büyük veriden, şehir güvenliğine dair tahmin yapılabilir mi? Bu soruya evet diyen en az iki büyük ABD şehri var: San Fransisco ve Chicago. Yaptıkları şey, kamu ve özel sektör tarafından toplanan verileri analiz ederek, şehirde olası güvenlik sorunlarını, “gerçekleşmeden önce” tahmin etmek. Bunlar cinayet, hırsızlık, gasp, darp gibi suçları önceden tahmin anlamına. İstihbarattan ziyade, polis işi.
Büyük verinin en büyük kısmı “açık veri.” Kamu ve özel sektörün topladığı veriler analiz amacıyla bir havuzda toplanıyor. Kamunun “açtığı” veri her zaman çok daha büyük. Ama eğer San Fransisco’da Baş Veri Sorumlusu (Chief Information Officer) diye bir makam olmasaydı, her kurum, kendi verisini kendisi toplayıp, işine yaramayanı çöpe atsaydı, bu veri ziyan olacaktı. Daha 2012’de CIO, kamunun elindeki 200’e yakın veri setini vatandaşın kullanımına açtı. Bundan, polis de yararlanıyor.
San Fransisco polisi, şimdi büyük veriyi kullanarak nerede ne zaman nasıl bir tür suç işlenebileceğine dair tahminlerini daha güçlü yapıyor. Chicago’da ise University of Chicago Urban Labs (Şehir Laboratuvarı) ile ortaklaşa çalışan polis, büyük veri analiziyle suçu “gerçekleşmeden” tahmine çalışıyor. Sadece 2016’da 726 cinayet işlenen Chicago için Trump, “Şehir yönetimi buna bir çare bulmazsa, oraya asker göndereceğim” diye tehdit etmişti.
Chicago Emniyeti, bu konuyla ilgilenmek üzere ilginç isimli bir birim kurmuş: “Şurada bir olay çıkabilir, hissediyorum” anlamına Önsezi (Hunch) Lab. Başka bir birim, gerçek olayları tek tek işaretliyor. Bu ve başka büyük veri analiz sonuçlarını bir uygulama haline getirmişler. Polislere verilen ceptellere bu uygulama yüklenmiş. Polis, buna bakarak durumu anında görüyor.
Sivil toplum örgütlerinin eleştirdiği bir birim ise Stratejik Kişi Listesi. Burada sabıkalılar, “olağan şüpheliler” ve “ilgi duyulan şahıslar” (Angloamerikan deyimiyle “persons of interest”) var. Polise göre, bir suç işleyen yeniden işleyebilir. ABD’nin öncü medeni haklar ve özgürlükler savunucusu ACLU’ya göre ise büyük veri analizinde kullanılan algoritmalar, siyahları hep dezavantajlı gösteriyor. Yani, algoritmalarda gizli bir ırk ayrımı var.
Matematik ve mantığa dayanan, dolayısıyla “yansız” olması gereken algoritmada “ırk ayrımı” sorununu fark eden MIT mezunu Joy Buolamwini, Algoritma Adalet Birliği’ni (Algorithmic Justice League) kurdu. 2010-11-16-17 Pulitzer ödüllü ProPublica “kamu yararına gazetecilik” sitesi de yüz tanıma ve suça eğilimi tahmin algoritmalarının daha çok siyahların aleyhine sonuç verdiğini örneklerle kanıtlıyor. Bu tür sorunlar çözülmeden, yapay zekanın, insan davranışını “insan gibi” anlaması mümkün olamayacak.