Algoritmik radikalleşme

sosyal medya algoritmalarının siyasi radikalleşmeyi yönlendirdiği psikolojik durum

Algoritmik radikalleşme, YouTube ve Facebook gibi popüler sosyal medya sitelerindeki algoritmaların kullanıcıları zaman içinde giderek daha aşırı içeriklere yönlendirdiği ve onların radikalize olmuş aşırıcı siyasi görüşler geliştirdiği kavramıdır. Algoritmalar, beğenilerden/beğenmeme işaretlerine ve paylaşımlara harcanan süreye kadar kullanıcı etkileşimlerini kaydederek, kullanıcıların ilgisini devam ettirecek sonsuz medya içeriği üretir. Kendi fikirlerini teyit etmeye yönelik medya tercihleri ve kendini doğrulama yoluyla, kullanıcı, yankı odası kanalları aracılığıyla daha kutuplaşmış hale getirilir.[1][2][3][4]

Algoritmik radikalleşme, genellikle sosyal medya şirketlerinin yankı odası kanallarını kaldırmak konusunda çıkarları olmadığı için tartışmalı bir özellik olarak kalmaktadır.[5][6] Sosyal medya şirketleri algoritmik radikalleşmenin varlığını kabul etmiş olsa da, her birinin bu büyüyen tehdidi nasıl yöneteceği henüz net değildir.

Sosyal medya yankı odaları değiştir

Sosyal medya platformları, kullanıcıların ilgi ve beğenilerini öğrenerek, beslemelerinde deneyimlerini değiştirir ve onları bağlı tutmak için kaydırma yapar. Bir yankı odası, kullanıcıların düşüncelerini büyüten veya pekiştiren inançlarla karşılaştıklarında ve benzer düşünen kullanıcıların bir grup oluşturduğu kapalı bir sistemde oluşur.[7] Yankı odalarının sorunu, karşıt inançları içermeyen bilgilerin yayılması ve doğrulama yanlılığına yol açabilmesidir. Bir gruplaşma teorisi olan "gruplaşma" teorisine göre, bir yankı odası kullanıcıları ve grupları daha aşırı radikalize pozisyonlara yönlendirebilir. Ulusal Tıp Kütüphanesi'ne göre, "Çevrimiçi kullanıcılar genellikle dünya görüşlerine uygun bilgilere daha çok ilgi gösterir,[8] farklı düşünceleri görmezden gelir ve paylaşılan anlatımlar etrafında kutuplaşmış gruplar oluşturur. Ayrıca, kutuplaşma yüksek olduğunda dezenformasyon hızla yayılır."[9]

Facebook'un algoritmaları değiştir

Facebook'un algoritması, kullanıcıların etkileşimde bulunmak isteyeceği içeriği önermeye odaklanır. Arkadaşların popüler gönderilerini, viral içerikleri ve bazen ayrıştırıcı içerikleri önceliklendirerek içeriği sıralar.[10] Her besleme, kullanıcının belirli ilgi alanlarına göre kişiselleştirilir ve bu bazen kullanıcıları sorunlu içeriklerin yer aldığı bir yankı odasına yönlendirebilir. Kullanıcılar, algoritmanın kullandığı ilgi alanları listesini "Reklam Tercihleriniz" sayfasına giderek bulabilirler. Pew Araştırma çalışmasına göre, Facebook kullanıcılarının %74'ü bu listenin varlığını araştırmadıkları sürece o sayfaya yönlendirilmediklerini belirtmişlerdir.[11] Ayrıca, Facebook'un kullanıcılarına siyasi etiketler ataması da oldukça yaygındır. Son yıllarda, Facebook yapay zeka kullanarak kullanıcıların beslemelerinde gördükleri içeriği ve onlara önerilen içeriği değiştirmeye başlamıştır. The Facebook Files adlı belge, AI sisteminin kullanıcı etkileşimini her şeyin üzerinde önemsediğini ortaya koymuştur. The Facebook Files aynı zamanda yapay zeka sistemlerini kontrol etmenin zor olduğunu göstermiştir.[12]

Facebook'un iddiaları değiştir

2021 yılında sızdırılan bir iç yazışmada, Facebook "platformlarımızın işleyişi tarafsız değil"[13][14] diyerek, maksimum kar elde etmek için etkileşimi optimize etmenin gerekliliğini kabul etmiştir. Etkileşimi artırmak için algoritmaların nefret, yanlış bilgi ve siyasetin uygulama faaliyetleri için önemli olduğunu tespit etmiştir.[15] Bahsi geçen iç yazışmada, "Materyal ne kadar kışkırtıcı ise, kullanıcıları o kadar fazla etkilemektedir ve algoritma tarafından daha çok desteklenmektedir"[13] ifadesine yer verilmiştir. Bir 2018 çalışmasına göre, "yalan haberler gerçek bilgilerden daha hızlı ve geniş bir şekilde yayılmaktadır... Yalan haberlerin, doğrulara kıyasla Twitter'da yeniden paylaşılma olasılığının %70 daha yüksek olduğu ve ilk 1,500 kişiye 6 kat daha hızlı ulaştığı bulunmuştur. Bu etki, diğer kategorilere kıyasla siyasi haberlerde daha belirgin bir şekilde görülmektedir."[16]

YouTube'un algoritması değiştir

YouTube, 2005 yılından beri var olan ve aylık olarak 2.5 milyardan fazla kullanıcıya sahip olan bir platformdur. YouTube'un keşif içerik sistemleri, kullanıcının kişisel etkinliklerine (izlenen, favoriler, beğeniler) odaklanarak onları önerilen içeriğe yönlendirmektedir. YouTube'un algoritması, kullanıcılara önerilen videoların yaklaşık %70'inden ve insanları belirli içerikleri izlemeye yönlendiren faktörlerden sorumludur.[17] Yeni bir çalışmaya göre, kullanıcıların önerilen içeriklerinde istenmeyen videoları görmemek için çok az gücü vardır. Bu durum, nefret söylemi, canlı yayınlar gibi videoları da içermektedir.[17]

YouTube'un iddiaları değiştir

YouTube, radikal içeriğin yayılması için etkili bir platform olarak belirlenmiştir. El-Kaide ve benzeri aşırıcı grupların, YouTube'u terör örgütü propaganda videolarının yayılması ve uluslararası medya kuruluşlarıyla etkileşime girmek için kullandığı tespit edilmiştir. Amerikan Behavioral Scientist Journal tarafından yayınlanan bir araştırma çalışmasında, "YouTube algoritmasının karar verme sürecine katkıda bulunabilecek bazı özelliklerin belirlenebilir olup olmadığını" araştırdılar.[18] Çalışmanın sonuçları, YouTube algoritmasının aşırıcılık içeren içerik önerilerinde video başlığında radikal kelimelerin varlığının etkili olduğunu gösterdi. 2023 Şubat ayında, Gonzalez v. Google davasında, sorulan soru Google'ın, YouTube'un ebeveyn şirketi olan Google'ın, algoritması aracılığıyla teröristlere yardım ettiği iddia edilen ISIS videolarını kullanıcılara önermesi konusunda davalardan korunup korunmadığıdır. Bölüm 230, genel olarak çevrimiçi platformları, kullanıcılarının yayınladığı içeriklerden kaynaklanan hukuki sorumluluktan koruma altına alır.[19]

TikTok algoritması değiştir

TikTok, her kullanıcının sayfasını farklı hale getiren videoları 'Sana Özel Sayfa' (For You Page - FYP) olarak öneren bir uygulamadır. Uygulamanın algoritma yapısı gereği, TikTok'un FYP'si, uygulamadaki önceki etkileşimlerinize dayanarak zamanla daha açıklayıcı ve radikal videoların gösterilmesiyle ilişkilendirilmiştir.[20] TikTok'un başlangıcından bu yana, uygulama, yanlış bilgi ve nefret söylemi konularında eleştirilere maruz kalmıştır çünkü bu tür medya içerikleri genellikle algoritma tarafından daha fazla etkileşim üretmektedir.[21]

2022 yılı itibarıyla TikTok'un ABD Güvenlik Başkanı, "Nisan-Haziran arasında 81.518.334 video, Topluluk İlkelerimizi veya Hizmet Şartlarımızı ihlal ettiği için küresel olarak kaldırıldı" şeklinde bir açıklama yapmıştır. Bu adımlar, nefret söylemi, taciz ve yanlış bilginin önüne geçmek amacıyla atılmıştır.[22]

Kendi kendine radikalleşme değiştir

 
Amerika Birleşik Devletleri İç Güvenlik Bakanlığı'nın "Bir Şey Görürsen Bir Şey Söyle" kampanyasından bir infografik. Kampanya, ülke içinde gelişen terörizm ve terörle bağlantılı suçlar konusunda farkındalık yaratmaya yönelik ulusal bir girişimdir.

ABD Adalet Bakanlığı, 'yalnız kurt' terörizmini "bir hükümetin veya terör örgütünün yardımı veya teşviki olmaksızın tek başına bir terör saldırısına karışan kişi" olarak tanımlamaktadır.[23] İnternet üzerindeki sosyal medya platformları aracılığıyla, 'yalnız kurt' terörizmi, algoritmik radikalleşmeyle bağlantılı olarak artmaktadır.[24] İnternet üzerindeki yankı odaları aracılığıyla, genellikle radikal olarak kabul edilen bakış açıları benimsenmiş ve hızla diğer aşırılık yanlıları tarafından benimsenmiştir.[25] Bu bakış açıları, forumlar, grup sohbetleri ve sosyal medya aracılığıyla teşvik edilerek inançlarını pekiştirmektedir.[26]

Medyadaki kaynaklar değiştir

The Social Dilemma değiştir

"The Social Dilemma" adlı 2020 yapımı belgesel-drama, sosyal medyanın ardındaki algoritmaların bağımlılığı teşvik ettiğini, insanların görüşlerini, duygularını ve davranışlarını manipüle ederek komplo teorileri ve yanlış bilgileri yaymada yetenek sahibi olduğunu anlatmaktadır. Film, "yankı odaları" ve "sahte haberler" gibi kavramları defalarca kullanarak sosyal medyadaki psikolojik manipülasyonu kanıtlamaya ve bunun sonucunda siyasi manipülasyona yol açtığını göstermeye çalışmaktadır. Filmde, Ben'in sosyal medya bağımlılığına daha da derinlemesine düştüğü, algoritmanın onun sosyal medya sayfasının uzun vadeli etkileşim için %62.3 olasılığa sahip olduğunu tespit ettiği şeklinde bir hikâye anlatılmaktadır. Bu durum Ben için önerilen videoların daha da artmasına ve sonunda propaganda ve komplo teorilerine daha fazla dahil olmasına, her videoyla birlikte daha da kutuplaşmasına yol açar.

Muhtemel çözümler değiştir

Bölüm 230 değiştir

1996 iletişim Ahlaki Düzensizlik Yasası'nın 230. bölümü, "Bir interaktif bilgisayar hizmetinin sağlayıcısı veya kullanıcısı, başka bir bilgi içerik sağlayıcısı tarafından sağlanan herhangi bir bilginin yayıncısı veya konuşmacısı olarak kabul edilmeyecektir"[27] şeklinde belirtmektedir. 230. bölüm, medyayı üçüncü taraf içeriğinden kaynaklanan yasal sorumluluklardan veya davalardan korur, örneğin kullanıcının yasadışı faaliyetlerinden.[27] Ancak, bu yaklaşım şirketin zararlı içeriği veya yanlış bilgileri kaldırma teşvikini azaltmaktadır. Bu açık, sosyal medya şirketlerine yasal risk olmaksızın radikal içeriği yayma ve karlarını maksimize etme imkanı sağlamaktadır.[28]

Ayrıca bakınız değiştir

Kaynakça değiştir

  1. ^ "What is a Social Media Echo Chamber? | Stan Richards School of Advertising". advertising.utexas.edu (İngilizce). 18 Ekim 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 2 Kasım 2022. 
  2. ^ "The Websites Sustaining Britain's Far-Right Influencers". bellingcat (İngilizce). 24 Şubat 2021. 24 Şubat 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Mart 2021. 
  3. ^ Camargo, Chico Q. "YouTube's algorithms might radicalise people – but the real problem is we've no idea how they work". The Conversation (İngilizce). 8 Mart 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Mart 2021. 
  4. ^ E&T editorial staff (27 Mayıs 2020). "Facebook did not act on own evidence of algorithm-driven extremism". eandt.theiet.org (İngilizce). 2 Mart 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 10 Mart 2021. 
  5. ^ "How Can Social Media Firms Tackle Hate Speech?". Knowledge at Wharton (İngilizce). 22 Kasım 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 22 Kasım 2022. 
  6. ^ "Internet Association - We Are The Voice Of The Internet Economy. | Internet Association". 17 Aralık 2021. 17 Aralık 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 22 Kasım 2022. 
  7. ^ "What is a Social Media Echo Chamber? | Stan Richards School of Advertising". advertising.utexas.edu (İngilizce). 4 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 12 Nisan 2023. 
  8. ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Galeazzi, Alessandro; Quattrociocchi, Walter; Starnini, Michele (2 Mart 2021). "The echo chamber effect on social media". Proceedings of the National Academy of Sciences of the United States of America. 118 (9): -2023301118. Bibcode:2021PNAS..11823301C. doi:10.1073/pnas.2023301118. ISSN 0027-8424. PMC 7936330 $2. PMID 33622786. 
  9. ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Starnini, Michele; Galeazzi, Alessandro; Quattrociocchi, Walter (14 Ocak 2021). "The echo chamber effect on social media". Proceedings of the National Academy of Sciences of the United States of America. 118 (9): e2023301118. Bibcode:2021PNAS..11823301C. doi:10.1073/pnas.2023301118. ISSN 0027-8424. PMC 7936330 $2. PMID 33622786. 
  10. ^ Oremus, Will; Alcantara, Chris; Merrill, Jeremy; Galocha, Artur (26 Ekim 2021). "How Facebook shapes your feed". The Washington Post. 12 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 12 Nisan 2023. 
  11. ^ Atske, Sara (16 Ocak 2019). "Facebook Algorithms and Personal Data". Pew Research Center: Internet, Science & Tech (İngilizce). 12 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 12 Nisan 2023. 
  12. ^ Korinek, Anton (8 Aralık 2021). "Why we need a new agency to regulate advanced artificial intelligence: Lessons on AI control from the Facebook Files". Brookings (İngilizce). 12 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 12 Nisan 2023. 
  13. ^ a b "Disinformation, Radicalization, and Algorithmic Amplification: What Steps Can Congress Take?". Just Security (İngilizce). 7 Şubat 2022. 7 Ekim 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 2 Kasım 2022. 
  14. ^ Isaac, Mike (25 Ekim 2021). "Facebook Wrestles With the Features It Used to Define Social Networking". The New York Times (İngilizce). ISSN 0362-4331. 2 Kasım 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 2 Kasım 2022. 
  15. ^ Little, Olivia. "TikTok is prompting users to follow far-right extremist accounts". Media Matters for America (İngilizce). 7 Ekim 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 2 Kasım 2022. 
  16. ^ "Study: False news spreads faster than the truth". MIT Sloan (İngilizce). 21 Kasım 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 2 Kasım 2022. 
  17. ^ a b "Hated that video? YouTube's algorithm might push you another just like it". MIT Technology Review (İngilizce). 12 Nisan 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 11 Nisan 2023. 
  18. ^ Murthy, Dhiraj (1 Mayıs 2021). "Evaluating Platform Accountability: Terrorist Content on YouTube". American Behavioral Scientist. 65 (6): 800-824. doi:10.1177/0002764221989774 – JSTOR vasıtasıyla. 
  19. ^ Root, Damon (April 2023). "Scotus Considers Section 230's Scope". Reason. 54 (11): 8. ISSN 0048-6906. 
  20. ^ "TikTok's algorithm leads users from transphobic videos to far-right rabbit holes". Media Matters for America (İngilizce). 22 Kasım 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 22 Kasım 2022. 
  21. ^ Little, Olivia. "Seemingly harmless conspiracy theory accounts on TikTok are pushing far-right propaganda and TikTok is prompting users to follow them". Media Matters for America (İngilizce). 22 Kasım 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 22 Kasım 2022. 
  22. ^ "Our continued fight against hate and harassment". Newsroom | TikTok (İngilizce). 16 Ağustos 2019. 22 Kasım 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 22 Kasım 2022. 
  23. ^ "Lone Wolf Terrorism in America | Office of Justice Programs". www.ojp.gov. 12 Ekim 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 2 Kasım 2022. 
  24. ^ Alfano, Mark; Carter, J. Adam; Cheong, Marc (2018). "Technological Seduction and Self-Radicalization". Journal of the American Philosophical Association (İngilizce). 4 (3): 298-322. doi:10.1017/apa.2018.27. ISSN 2053-4477. 12 Aralık 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 8 Haziran 2023. 
  25. ^ Dubois, Elizabeth; Blank, Grant (4 Mayıs 2018). "The echo chamber is overstated: the moderating effect of political interest and diverse media". Information, Communication & Society. 21 (5): 729-745. doi:10.1080/1369118X.2018.1428656. ISSN 1369-118X. 
  26. ^ Sunstein, Cass R. (13 Mayıs 2009). Going to Extremes: How Like Minds Unite and Divide (İngilizce). Oxford University Press. ISBN 978-0-19-979314-3. 8 Haziran 2023 tarihinde kaynağından arşivlendi. Erişim tarihi: 8 Haziran 2023. 
  27. ^ a b "47 U.S. Code § 230 - Protection for private blocking and screening of offensive material". LII / Legal Information Institute (İngilizce). 5 Eylül 2022 tarihinde kaynağından arşivlendi. Erişim tarihi: 2 Kasım 2022. 
  28. ^ Smith, Michael D.; Alstyne, Marshall Van (12 Ağustos 2021). "It's Time to Update Section 230". Harvard Business Review. ISSN 0017-8012. 28 Kasım 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 2 Kasım 2022.