Facebook díky PR krizi začne více potírat obsah nenávistný k ženám

Zatímco obrázky kojících matek jsou podle pravidel Facebooku považovány za nahotu a sociální síť je maže, mnohem závadnější příspěvky, propagující či oslavující nenávist k ženám a násilí na nich, ještě nedávno uživatelům prošly jako neporušujícím tato pravidla. Posuďte sami. Více obrázků, které se objevovaly na Facebooku a celou krizi nejprve vyvolaly a později přiživovaly, lze najít v článku Business Insideru:

Takových obrázků se na tematických stránkách s názvy jako ta z obrázku objevovalo mnoho a Facebook se dlouho tvářil, že s tím nemůže nic dělat, protože neodporují jeho pravidlům. To samozřejmě vyvolalo pobouření z mnoha stran, jak od samotných uživatelů, tak od organizací bojujících za práva žen, a všichni dohromady začali na Facebook tlačit, aby situaci napravil.

Aby byla tato snaha efektivní, aktivisté začali oslovovat i velké značky a přesvědčovat je k opuštění placené inzerce na sociální síti, dokud bude existovat nebezpečí, že se jejich reklamy objeví vedle násilného a nenávistného obsahu. Nejaktivněji se zapojila organizace Women, Action, and the Media, která také náležitě oslavila, když kolem patnácti oslovených značek, včetně britské pobočky Nissanu, skutečně začalo reklamu z Facebooku stahovat.

Facebook během včerejška konečně zareagoval, jak se od něj čekalo, a slíbil, že situaci napraví. V příspěvku se přiznává k tomu, že jeho systémy pro identifikování závadného obsahu „nefungují tak dobře, jak by si sám představoval“, a že mnoho příspěvků kontrolou prošlo kvůli „posuzování podle zastaralých kritérií“. Sociální síť slibuje, že závazku, který má vůči svým uživatelům, dostojí a povede si v budoucnu při kontrole obsahu lépe.

Ve větší části příspěvku potom Facebook vysvětluje těžkosti, které má s vyvažováním svobody projevu na jedné straně a nezávadnosti obsahu na straně druhé. V rámci ochrany svobody projevu nechce sociální síť zcela vyřadit veškerý „ofenzivní a necitlivý“ obsah, který její uživatelé sdílí. Slibuje ale pracovat s právními experty a organizacemi bojujícími za ochranu diskriminovaných skupin, aby lépe vzdělala a připravila své pracovníky na filtrování obsahu a rozhodování o tom, co je ještě snesitelné a co už za pomyslnou červenou čáru zasahuje.

Kromě toho Facebook připravuje nástroj, s jehož pomocí by autoři ofenzivního a hrubého obsahu, který přímo neporušuje pravidla sociální sítě, byli přímo identifikovatelní a museli by si tak za svoje příspěvky nést přímou zodpovědnost i v případě jejich publikování prostřednictvím stránky. Prozatím začal tím, že smazal většinu nevhodných obrázků, na které na základě kampaně WMA upozorňovali uživatelé na Twitteru.