Facebook hangi içerikleri, neden siliyor hiç merak etmiş miydiniz?
İngiliz Guardian gazetesinin yaptığı bir çalışma, Facebook’un içerik değerlendirme prosedürlerini ortaya koyuyor. Gazetenin incelediği 100’den fazla şirket içi eğitim elkitabı, çizelge ve grafik, Facebook’un şiddet, nefret suçu, pornografi, terörizm olayları, ırkçılık ve kendine zarar verme gibi meselelere yaklaşımını ortaya çıkardı.
Facebook Belgeleri
Guardian’ın verdiği isimle ‘Facebook Belgeleri’, Avrupa ve ABD tarafından ağır siyasi baskı altında olan sitenin belirlediği kural ve ilkeleri gözler önüne seriyor. Belgeler aynı zamanda Facebook’un intihar ve kendine zarar verme girişimlerine karşı yapılan yardım çağrıları ile tekrar edilen davranışlar arasında bir denge kurmaya çalıştığını da anlatıyor.
Facebook’un bu denge çabası kullanıcıların kendilerine zarar vermelerini canlı yayımlamalarına izin vermesine neden oluyor.
İçerisinden dolandırıcılıktan, yamyamlığa kadar geniş bir çerçevede değerlendirmelerin bulunduğu belgelerde “intikam pornosu” kavramı da karşımıza çıkıyor. Bu yeni olgulara hızlı bir şekilde cevap vermekte zorlanan site çalışanlarının karar vermek için 10 saniyelerinin olması işleri daha da zorlaştırıyor. İş yükü nedeniyle verdikleri kararlarda sağlıksızlaşan moderatörlerin bu durumla nasıl başa cıkacağı ise şu an için bilinmiyor.
“Facebook içeriğinin kontrolünü yapamıyor. Çok hızlı, çok fazla büyüdü”
Belgelere göre haftada 6,5 milyondan fazla sahte hesaba yönelik ihbar alan Facebook, bunların hepsini gözden geçirmek zorunda.
Facebook İçerik Silme Prosedürleri İfade Özgürlüğünü Tehdit Ediyor
Site yöneticilerinin incitici, nefret ve şiddet dolu içerikleri engellemek için daha fazla çaba sarf etmesi gerektiğini düşüncesinin yanı sıra bu durum bir çeşit sansürü doğuruyor olması durumu daha da zora sokuyor. Dünyanın en büyük sansür sistemi olarak adlandırılabilecek bu sistem, pek çok kesimden de tepki topluyor.
Guardian, çalışanlara son bir yıl içinde verildiğini söylediği belgelerden örnekleri şu şekilde sıralıyor:
*“Birisi Trump’ı vurmalı” gibi ifadeler silinmeli, çünkü bir devlet başkanı korunaklı bir kategoride bulunuyor. Ancak sadece küfür içeren bazı ifadeler kalabilir, çünkü gerçek bir tehdit içermiyor.
*Şiddet içerikli ölüm videoları, rahatsız edici olarak belirtilebilirken, her zaman silinmek zorunda değil, çünkü zihinsel hastalıklar gibi bazı konularda farkındalık artırıcı olarak kullanılabilir.
*Cinsel saldırı haricindeki fiziki saldırı ve çocuklarla dalga geçen fotoğraflar sadistçe ya da yücelten bir yönü olmadığı müddetçe silinmek zorunda değil.
*Hayvanlara eziyet fotoğrafları paylaşılabilir ancak çok rahatsız edici fotoğraflar “rahatsız edici” ibaresiyle paylaşılmalıdır.
*İnsanlar tarafından yapılan çıplaklık ve cinsel eylem içerikli sanat paylaşımlarına izin veriliyor, ancak cinsel içerikli dijital olarak hazırlanmış sanata izin verilmiyor.
*Çıplaklık olmadığı müddetçe kürtaj videolarına izin veriliyor.
*Facebook canlı yayınla kendine zarar verme teşebbüslerine izin veriyor, çünkü “zor zamanlar geçiren insanları sansürlemek ya da cezalandırmak istemiyor.”
Verilen örneklerde görüldüğü üzere neyin sansürlenmesi gerektiği, neyin ifade özgürlüğü olduğu tartışmaları oldukça ince sınırlar etrafında şekilleniyor.
Kimler Kamuya Mal Olmuş?
“Kamuya mal olmak” tabiri de bu belgelerde yer alan bir başka tartışmalı kavram. Facebook 100 binden fazla takipçisi olan herkesi kamuya mâl olmuş kişi olarak kabul ediyor ve bireylere verilen korunma haklarını onlara vermiyor. Bu durumda o bireylerin daha fazla saldırıya maruz kalmasına olanak sağlıyor.
2 Milyar Kullanıcı
Dünyanın en kalabalık ülkesi olarak anılan Facebook’un küresel politikalar sorumlusu Monika Bickert, böyle büyük bir nüfusu kontrol etmenin ve neye izin verileceği konusunda ortak bir karara varmanın oldukça zor olduğunun altını çiziyor.
“Çok çeşitli bir küresel toplumumuz var ve insanların neleri paylaşmanın doğru olduğu konusunda farklı fikirleri olacak. Çizgiye nereye çekerseniz çekin, gri alanlar olacaktır. Örneğin bazen hiciv ve espiri ve yakışıksız içerik arasındaki çizgi oldukça gri olabiliyor. Bazı şeylerin siteye uygun olup olmadığına karar vermek çok zor.”
Kime Göre Çıplaklık?
Bu tartışmalı durumlarından birine örnek olarak Facebook’un, Vietnam Savaşı’nın simge fotoğrafı haline gelen, Napalm bombasından çıplak bir halde kaçan küçük kız Kim Phuc’un fotoğrafını kaldırmasını gösterebiliriz. Çıplaklık kavramının yeniden sorgulatan bu kararın ardından sitenin yeni bir rehber yayınladığı biliniyor.
Bu yeni rehberde, “haber değeri taşıyan” içeriklere izin verilebileceği belirtiliyor. Ancak rehber Holocaust benzeri trajedilerde fotoğraflanan çocukların çıplak bir şekilde gösterilmesini bu durumun dışında tutuyor.
Guardian’ın haberinde yayınlanan ifadeye göre Facebook yaptığı açıklamada rahatsız edici görsel içerikleri siteye konmadan engelleyen bir yazılım kullandıkları ifadesine yer verdi.
“İnsanların küresel ve güncel olayları tartışabilmelerini istiyoruz… bu yüzden şiddet içeren bir fotoğrafın paylaşıldığı çerçeve bazen önemli oluyor”
Bickert yaptıkları işin bir eşi olmadığını bu nedenle yönetiminin zor olduğunu da vurguluyor.
“Yeni bir çeşit şirket. Geleneksel bir teknoloji şirketi değil. Geleneksel bir medya şirketi değil. Teknoloji inşa ediyoruz ve nasıl kullanıldığından sorumluluk duyuyoruz. İnsanların platformda okudukları haberleri biz yazmıyoruz”