T­h­e­ ­G­u­a­r­d­i­a­n­,­ ­F­a­c­e­b­o­o­k­’­u­n­ ­‘­S­k­a­n­d­a­l­’­ ­İ­ç­e­r­i­k­ ­S­i­l­m­e­ ­K­r­i­t­e­r­l­e­r­i­n­e­ ­U­l­a­ş­t­ı­!­

T­h­e­ ­G­u­a­r­d­i­a­n­,­ ­F­a­c­e­b­o­o­k­’­u­n­ ­‘­S­k­a­n­d­a­l­’­ ­İ­ç­e­r­i­k­ ­S­i­l­m­e­ ­K­r­i­t­e­r­l­e­r­i­n­e­ ­U­l­a­ş­t­ı­!­

Bu yıl itibariyle 2 milyarlık kullanıcı sınırına yaklaşan Facebook, dünyanın açık ara en çok bilinen şirketlerinden. Elinde tuttuğu muazzam kullanıcı kitlesi ise, artık kötü hizmet verse bile şirketin uzun süre daha ayakta kalmasını sağlayabilir. Bu 2 milyar üye her gün milyonlarca fotoğraf ve videoyu Facebook üzerinden yayımlıyor. Bu boyuttaki kitlesel bir oluşumda yapılan paylaşımların kontrol altına alınabilmesi için bir takım kurallar ve ilkeler gerekiyor.

İLGİLİ HABER

Facebook Canlı Yayını Sırasında Bir Adam, Yaşlı Bir Adamı Öldürdü!

Yukarıdaki örnek gibi son zamanlarda artan şiddet içerikli ya da seks skandallarına ait paylaşımlar, toplumu patlamak üzere olan bir bolan gibi şişirme potansiyeline sahip terör destekçisi paylaşımlar, Facebook’un ilke ve kuralları hakkında sorulması gereken birçok soruyu gündeme getirdi. The Guardian gazetesinin derinlemesine araştırması sonucunda soruların cevabı ilk kez ortaya çıktı. 

Moderatörlerin tüm bu zorlu süreçlerin ardından yayından kaldırılıp kaldırmayacak içerikleri seçerken ortaya koydukları kötü performans, mevcut politikaların çarpıklığına bağlanıyor. Çünkü aşırı cinsellik içeren ya da ırkçı söylemlerin yer aldığı görüntüler kaldırılmazken, insanların bir savaş sırasındaki dramatik anlarını gösteren -aslında herkesin görmesi gereken- fotoğraflar kaldırılıyor. 

Bir belgede Facebook'un potansiyel sahte hesaplarla ilgili olarak haftada 6,5 ​​milyondan fazla rapor aldığı söyleniyor. İşte şirketin şiddet, nefret dolu konuşmalar, terörizm, pornografi, ırkçılık ve kendine zarar verme gibi konularla baş etmek için uyguladığı “tartışmalı” politikalar:

Facebook’un Küresel Politikalar Yönetici Monika Bickert "Gerçekten çok çeşitli, küresel bir topluluğa sahibiz ve insanlar paylaşacakları şeyler konusunda çok farklı fikirlere sahip olabiliyorlar. Çizgiyi nereden çekerseniz çekin, her zaman biraz gri alan kalacaktır. Örneğin, hiciv ve mizah ile uygunsuz içerik arasındaki çizgi bazen çok incedir, ayırt edilemez bile. İşte bu yüzden, bazı şeylerin sitede olup olmamasına karar vermek çok zor. Topluluğumuzun güvenliğinden biz sorumluyuz ve üstesinden geleceğiz. Bu bir şirket taahhütüdür. Siteyi proaktif bir şekilde korumak için yatırım yapmaya devam edeceğiz ancak, insanlara standartlarımızı ihlal eden herhangi bir içeriği bize bildirme yetkisini de vermek istiyoruz" şeklinde konuştu. 

Her ne kadar ılımlı yaklaşımlar içeren açıklamalar yapılsa da, politikaların fazlasıyla çarpık olduğu ve bu yüzden platformun adeta mayın tarlasına döndüğü ortada. Facebook'un şiddet içeren ölüm, cinsel olmayan fiziksel çocuk istismarı ve hayvanlara yönelik işkenceler gibi konulara yönelik politikaları ise işleri çok daha çıkılması zor bir noktaya taşıyor:

Yapılan görüşmelerde yukarıda da açıklamasını okuduğunuz Bickert, Facebook'un geleneksel bir teknoloji ya da medya şirketi değil "yeni bir tür şirket" olduğunu söylüyor ve platformun kullanımı konusunda kendilerini sorumlu hissettiklerini vurgulamaya devam ediyor.

Facebook’un gerçekten içerik yönetimi konusunda etik değerlerden utanç verici bir şekilde uzak olduğunu gösteren sızıntı, platformun topluluk standartlarının ne kadar yerlerde süründüğünü gözler önüne seriyor. Bireylerin kendisini söz konusu tehditkar içeriklerden koruyamaması durumuna 'farkındalık' kılıfı giydirilmiş durumda.

Şirketin benzeri hataları, zaten elinde bulundurduğu ve dünyanın yaklaşık 3’te 1’i oluşturan kitleden her dakika, kamyon yüküyle para kazanmasına engel olmuyor. 2006 yılından bu yana verilmeye devam eden fireler, toplumun sağlığını bozmakta, gündemi şiddet, cinsellik ve terör haberleri ile meşgul etmekte. 
 
Anlaşılan Facebook’a göre durumlar böyle değil.

Popular Articles

Latest Articles