Facebook; nefret söylemi, ayrımcı içerikler ve bu gibi daha fazla konu için 25 sayfalık kurallar ortaya koyan bir yazı yayınladı.
Facebook; nefret söylemi, ayrımcı içerikler ve bu gibi daha fazla konu için 25 sayfalık kurallar ortaya koyan bir yazı yayınladı.
Facebook; yöneticilerinin şiddet, spam, taciz, kendine zarar verme, terörizm, fikri mülkiyet hırsızlığı ve nefret söylemi içerikli paylaşımları kendi sosyal ağlarından bugüne kadar kaldırılıp kaldırılmayacağına dair karar vermek için kullandıkları yönergeleri bugüne kadar hiç yayınlamamıştı.
Şirket, bu kuralları ve değişiklikleri yaparken bunları halka sunmaktan kaçınmayı umuyordu, ancak bu kullanıcıların bu konudaki endişesi, halkın sürekli gizlilik konusunda yaptığı çağrılar ve bu çağrılar sonucunda yapılan protestolar sayesinde; Facebook’un bu gibi işleri gizli saklı yapmasının önüne geçildi. Yakın zamanda Facebook, neye izin verilip verilmediğine ilişkin 25 sayfalık ayrıntılı kriter ve bu kriterlerle ilgili örnekler içeren bir yazı yayınladı.
Facebook, uygulama hatalarının kullanıcılara vereceği zararları kaldırmak ya da bu hataları gidermek yerine bu zararların altında yatan politikanın “eleştirilebileceği” yerlerini etkili bir şekilde değiştiriyor. Henüz tüm değişiklikler tamamlanmadan önce çocuk çıplaklığı içerdiğinden, haber değeri taşıyan, “Napalm Kızı” tarihsel fotoğrafını yayından kaldırırken olduğu gibi.
Bazı gruplar mutlaka dikkat edilmesi gereken önemli noktaları muhakkak ki bulacaktır, ancak Facebook önlem olarak bazı önemli iyileştirmeler yaptı. En önemlisi Facebook, azınlıkların artık nefret söyleminden korunmalarının önüne geçmiyor, çünkü “çocuk” gibi korunmasız bir karaktere “siyah” gibi korunmasız karakteristik bir özellik daha ekleniyor.
Facebook’un politikaları hakkında teknik olarak hiçbir şey değişmedi. Ancak daha önce, yalnızca Guardian tarafından elde edilen bir iç kural kitabının kopyası gibi bir sızıntı, dış dünyaya Facebook’un bu politikaları ne zaman uyguladığına dair bir bilgi vermişti.
Bu kurallar tüm halkların anlaması için 40’tan fazla dile çevrilmiştir. Facebook’ta şu anda bir yıl öncesine göre % 40 oranında artış gösteren 7500 içerik eleştirmeni vardır.
Facebook ayrıca içerik kaldırma sürecini genişletmeyi planlıyor. Kullanıcılardan; profillerini, sayfalarını ya da gruplarını Facebook platformundan kaldırma kararını gözden geçirmeleri konusunda bir istekte bulundu. Artık Facebook; çıplaklık, cinsel aktivite, nefret dolu konuşma veya grafik şiddet içeriği ortadan kaldırdığında kullanıcılara bildirimde bulunacak ve işlem genellikle 24 saat içinde gerçekleşecek olan “Gözden Geçirme İsteği” adı altında, kullanıcıların bu gibi şikâyetlerini bildirmesini amaçlayan bir butona basmalarına olanak sağlayacak.
Son olarak, Facebook, sosyal forumlar politikasının nasıl işlediğine daha yakından bakmak için Almanya, Fransa, İngiltere, Hindistan, Singapur ve ABD’de gerçekleşecek olan “Facebook Forumları: Topluluk Standartları” etkinliklerini düzenlemiştir.
Facebook’un Küresel Ürün Yönetimi Genel Sekreteri Monika Bickert:
Eylül ayından bu yana ilkelerin açıklanmasını koordine eden Monika Bickert, geçtiğimiz hafta Facebook’un Menlo Park Genel Merkezi’ndeki muhabirlere “Kurumların politikalarını ortaya koyma zamanlarında, bu politikaların insanların davranışlarını nasıl değiştirdiği hakkında çok fazla araştırma yapıldı ve bu gerçekten de iyi bir şey. ” Teröristlerin veya nefret gruplarının, Facebook’un moderatörlerinden kaçmak için “ geçici çözümler ” geliştirmede daha iyi olacağı endişesi olduğunu itiraf ediyor, “ Ancak gerçekte işin arka planında ne olduğu konusunda daha açık olmak kullanıcılar için daha faydalı olacaktır. ” diyor.
Facebook da dahil olmak üzere çeşitli sosyal medya şirketlerinde bulunan içerik moderatörlük işleri; çocuk cinsel içeriğinin yayılmasıyla mücadele etmenin ne kadar zor olduğu birçok videoda anlatmıştır ancak, günde saatlerce ırkçılıkla mücadele etmenin nasıl bir şey olduğu ise moderatörler tarafından “cehennem” olarak tanımlamıştır.
Bickert, Facebook’un moderatörlerinin bununla başa çıkabilmek için eğitildiğini ve bazı tesisler de dahil olmak üzere danışmanlık ve 7/24 kaynaklara erişimi olduğunu söylüyor. Moderatörler, hassas oldukları belirli içerik türlerine bakmamayı talep edebilirler. Ancak Bickert, Facebook’un – YouTube’un son zamanlarda dört saatlik bir limit uyguladığı gibi – moderatörlerin rahatsız edici içerikleri günde ne kadar göreceklerine dair saatlik bir sınır getirip getirmediklerini söylemedi.
Sızdırılan ve farklı dillere çevrilen kılavuzlardaki en çarpıcı açıklama ise; Facebook’un “siyah çocukları” değil, “beyaz insanları” koruduğu. Bu, nefret söyleminden korunmuş olarak kabul edilen ve zayıf ya da “çocuk” gibi korunmasız kullanıcıların korunması konusunda, Facebook’un bir politikasının olmadığını gözler önüne seriyor.
Şimdi Bickert “Siyah çocuklar, korunacaktır. Beyaz insanlar da onlarla birlikte korunacaktır. Herhangi bir paylaşım, bir insana karşı geliyorsa bunu bir saldırı olarak görüyoruz, ancak bir kuruluşu ya da bir dini eleştirebilirsiniz. Birisi “bu ülke kötü” diyorsa, bu onun eleştiri hakkıdır ve bu kesinlikle bizim izin verdiğimiz bir şey.
“Bu dine mensup üyeler kötüdür” demek ise kesinlikle yasaktır ve bu tarz bir paylaşım tespit edilip kaldırılır. ”Facebook’un, mağdur sıfatındaki korunmasız grupların ve bireylerin daha fazla farkında olduğunu açıklıyor. Ancak Bickert, eğer birileri “Eğer partime gelmezseniz sizi öldüreceğim” diyorsa ve bu kesin bir tehdit değilse, bu paylaşımı kaldırmak istemediklerini belirtiyor.