FACEBOOK YANLI MI, BİREYE AT GÖZLÜĞÜ MÜ?
Geçtiğimiz ay, Facebook’un yanlı olduğu, haber akışında tutucu, sağ görüşlere daha az yer verdiği iddiası Amerika’da ortalığı karıştırdı. Hatta, Amerikan senatosundan bu konuda Facebook bir uyarı mektubu aldı. Facebook savunmasında (http://bit.ly/1OSI2fh), bu iddiayı reddetti, haberlerin nötr bir algoritma tarafından belirlendiğini ileri sürdü.
Arama motorlarındaki, sosyal ağlardaki, büyük verideki algoritmalar gerçekten nötr mü?
İnternet alanında önemli bir düşünür ve aktivist olan Eli Parisier, 2011’de yayımlanan “The Filter Bubble: What the Internet is Hiding From You” (Filtre Baloncuğu: İnternetin Sizden Gizlediği) kitabında bireyi uyarmıştı: bireyin internetteki her tıklaması ve her tuş darbesi, örneğin Google’dan alacağı bilginin filtrelenerek kendi görüşlerine uygun olması sonucunu yaratıyor. Bireyin internette okuduklarından X siyasi görüşüne sahip olduğu anlaşılırsa, herhangi bir konuda internette arama yaptığında, objektif veya farklı görüşler yerine, X görüşüne uygun seçenekler kendisine daha önde sunulabiliyor. Birey, bu “baloncuk” içerisine hapsolarak, giderek benzer görüşler kabilesinin üyesi oluyor. Kültürel ve siyasi çeşitlilikten uzaklaşıyor.
New York Üniversitesi, Sosyal Psikoloji profesörü Jonathan Haidt, çoksatan listesine giren “The Righteous Mind: Why Good People are Divided by Politics and Religion” (Doğrucu Zihin: İyi İnsanlar Neden Siyasi ve Din Nedeniyle Bölünür/Kutuplaşır) başlıklı kitabında ayni durumu vurgular. Haidt’e göre, “Facebook Etkisi” dediği bu durum, bireyde zaten var olan kendisi gibiler ortamında olma içgüdüsünü daha da perçinliyor.
Dolayısıyla, birey tercihleri ile şekillendirilebilen algoritmaların nötr olmasını bekleyemeyiz. Facebook’un kullandığı algoritmaların, daha dikkat çeken haberleri öne aldığı görülüyor. Böylece, fazla tıklanmamış olanlar arka plana düşebiliyor. Ortada bir yanlılıktan çok, algoritmaların nötr olmadığı gerçeği var.