Facebook postavil Ministerstvo pravdy. Kdy smažou i váš post?

Mark Zuckerberg loni prohlásil, že Facebook o pravdě nerozhoduje. Prý se nechce stát arbitrem pravdy, a proto si na tuto náročnou (a možná i nepopulární) činnost najal externí výpomoc. Boj proti dezinformacím je nekonečný, přičemž neustále narůstá počet souvisejících problémů a otázek, které je třeba řešit.

V roce 2016 zahájil Facebook program pro kontrolu faktů ve spolupráci s třetími stranami – certifikovaní hodnotitelé z mezinárodní sítě hodnotitelů IFCN po celém světě dohlíží na přesnost a pravdivost obsahu na platformě, kterou v roce 2020 využívalo 1,7 miliardy uživatelů denně. Program je součástí širšího přístupu, kterým Facebook řeší problematický obsah napříč všemi svými aplikacemi. Jak to probíhá? Nezávislí fact-checkers (ověřovatelé faktů) mají identifikovat a zkontrolovat potenciální dezinformace, ohodnotit je a notifikovat Facebook, který následně zareaguje. K srpnu loňského roku spolupracoval Facebook s více než 70 nezávislými skupinami, které kontrolovaly nekonečný proud potenciálních dezinformací.

Jak „ministerstvo pravdy“ funguje?

Jak se daří Facebooku detekovat všechny fake news? Nedaří, ale snaží se o to. Jednak spoléhá na zpětnou vazbu aktivních uživatelů, kteří ve svém feedu označí potenciálně nepravdivý obsah. Dále se zaměřuje na uživatelské reakce – když se pod nějakým příspěvkem často objevují komentáře typu „nevěřím“, pak je takový text hoden kontroly. Důležitým pomocníkem při identifikaci nepravdivých informací jsou také modely strojového učení. Ty se snaží zlepšovat omezené lidské schopnosti, aby zachytily co nejvíce dezinformací. A funguje to i oboustranně – hodnocení externích ověřovatelů se vkládají zpět do modelu umělé inteligence, který se z nich učí a zlepšuje svůj odhad a výsledky při odhalování fake news, hoaxů nebo dalších nepravdivých a zavádějících informací.

Malá lež vs. lež jako věž?

Ověřovatelé faktů zkoumají a hodnotí přesnost příběhů s ohledem na originální text, ať už je srovnávají s rozhovory a primárními zdroji, procházejí veřejná data, nebo provádějí analýzy médií (fotografie a videa nevyjímaje). Jaká konkrétní hodnocení fact-checker používá?

  • NEPRAVDIVÉ – Takto označí obsah, který není založen na faktech.
  • POZMĚNĚNÉ – Jedná se o obrazový, zvukový nebo video materiál, který byl upraven způsobem, který by mohl lidi uvést v omyl.
  • ČÁSTEČNĚ NEPRAVDIVÉ – Hodnotitelé takto ocejchují obsah, jehož součástí jsou věcné nepřesnosti.
  • CHYBĚJÍCÍ KONTEXT – S touto nálepkou skončí obsah, který může být bez dalšího kontextu zavádějící.
  • Ačkoliv se externisté pro kontrolu faktů zaměřují na hledání dezinformací, mohou také označit, jestli je zkontrolovaný obsah PRAVDA nebo SATIRA.

Obrana proti fake news

Jakmile obdrží Facebook od externích hodnotitelů feedback, podnikne takové kroky, aby dezinformace vidělo co možná nejméně lidí. Štítkem označí fake news, aby uživatelé napříč platformami věděli, že čtou zavádějící zprávu. Mezi další možné akce spadá snížená distribuce příspěvku, který se zobrazí v kanále příspěvků až v dolní části. Když se někdo pokusí sdílet příspěvek, který byl vyhodnocen jako nepravdivý, zobrazí se o tom uživateli varování. Lidé se pak mohou rozhodnout, jestli budou takový příspěvek číst, důvěřovat mu a jestli stojí za sdílení. Jakmile uživatel zasdílí příspěvek, který byl později ověřovateli označen za nepravdivý, uživatel je na to upozorněn dodatečně. A když se někdo nepoučí? Stránky nebo weby, které opakovaně šíří dezinformace, budou potrestány snížením celkové distribuce v určitém časovém období, stejně tak přijdou o možnost inzerovat nebo monetizovat svůj obsah.

Facebook je arbitrem pravdy

Facebook může v některých sporných případech zasáhnout a požádat nezávislé hodnotitele o úpravu jejich hodnocení. Zejména v případě, když se domnívá, že některá část obsahu byla za dezinformaci označena omylem. Jenže kdo je pak za hodnocení takového obsahu odpovědný – Facebook nebo třetí strana?

Fact-checking a politici = tvrdý oříšek

Existují výjimky, které kontrole faktů nepodléhají? Kontrolou by neměly procházet evidentní osobní názory. A protože Facebook se nechal slyšet, že věří ve svobodný projev a demokracii, nechtěl omezovat ani výroky politiků či jejich projevy – údajně proto, že by měli nést za své výroky odpovědnost. Proto ponechával bez cenzury příspěvky politiků jako fotky, videa i veškerý obsah vytvořený v rámci politické kampaně.

Trumpův trudný konec na sociálních sítích

Začátkem ledna se však Facebook uchýlil k bezprecedentnímu kroku a zablokoval účet Donaldu Trumpovi poté, co Trumpovi přívrženci zaútočili na americký Kapitol. Zuckerberg rozhodnutí odůvodnil tím, že „rizika umožňující prezidentovi i nadále využívat naše služby během tohoto období, jsou prostě příliš veliká.“ Trumpův účet bude zablokován minimálně do 20. ledna, kdy Joe Biden složí prezidentskou přísahu.

Vědci zabývající se dezinformacemi však volají, aby Trumpův účet byl zablokován na neurčito. Byly nedávné události v Americe výsledkem přílišné svobody projevu na jedné z největších sociálních sítí? Mají soukromé společnosti jako Facebook či Twitter veškeré právo zrušit nebo pozastavit uživatelské účty podle libosti? Nebo by naopak s podobnými technologickými společnostmi mělo být zacházeno spíše jako s vydavateli – kteří jsou zodpovědní za obsah dostupný na jejich platformách?

Věřit či ověřit

Nedokazuje právě zkušenost s Trumpem, že by zejména účty a příspěvky politiků neměly spadat pod žádnou výjimku, a naopak by se zde obsažené informace měly ověřovat? Veřejnost totiž často přisuzuje prohlášením veřejných osob přímo zpravodajskou hodnotu a současná politika může proto působit, že nechává osobnostem po celém světě volnou ruku k beztrestnému šíření lží. Nesmíme zapomínat, že vysoce sledované účty jsou při šíření dezinformací klíčové.

Ověřování faktů je zcela úspěšné. NEPRAVDA

Facebook a jeho systém je podrobován kritice veřejnosti i zatěžkávacím zkouškám skupin i jednotlivců, kteří bez větších problémů dokazují, že systém nefunguje, jak by měl. Že ani umělá inteligence nezachytí zcela evidentní variace závadných obrázků nebo memů.

Celoroční studie americké neziskové organizace Avaaz, která se věnovala facebookovému kontrolnímu systému, poukázala na to, jak dezinformátoři mohou několika drobnými úpravami obelstít algoritmus a vyhnout se tak nežádoucímu statusu „repeat offender“. Variance na tytéž příspěvky se příliš často nerušeně replikují, přestože originální obsah byl vyhodnocen jako nepravdivý.

Pravda je mocný nástroj

Před prezidentskými volbami se Facebook snažil veřejnost uklidnit, že se od roku 2016 už ze svých chyb poučil – i přesto existuje mnoho důkazů, že se mu nepodařilo usměrnit stovky (jím dříve označených) příspěvků, které opětovně vzbudily vlnu reakcí na sociálních médiích.

Dezinformátoři se pomocí jednoduchých kroků (jako je změna písma, různě zbarvené pozadí příspěvku, oříznutí) vyhýbají automatizovaným nebo lidským hodnotitelům. A přestože jsou výsledné příspěvky jen pramálo odlišné od těch, které se Facebooku podařilo zachytit, tyto mohou existovat a žít novým životem navzdory tomu, že rozšiřují falešná tvrzení například o Donaldu Trumpovi, Joe Bidenovi, o koronaviru, potratech, klimatických změnách i dalších důležitých tématech.

Na obranu Facebooku je třeba podotknout, že kontrola faktů je obtížný a pomalý úkol, kdežto vymýšlení falešných příběhů je rychlé a snadné.

Je možné přenést rozhodovací pravomoc na laiky?

Crowdsourcing, tzv. moudrost davů, v tomto kontextu formuluje otázku, jestli by dav obyčejných lidí nebyl při hodnocení fake news stejně dobrý jako profesionální ověřovatelé faktů? Crowdsourcing vypadá jako slibný přístup, který by mohl v budoucnu pomoci identifikovat dezinformace ve velkém měřítku.

Příliš velké sousto

Na rozdíl od ověřovatelů faktů neposkytuje Facebook informace o tom, proč některou stránku downgradoval nebo označil jako nepravdivou, proto se často zpochybňuje transparentnost jeho rozhodovacích procesů. Je pochopitelné, že nemůže poskytovat podrobné informace o každém učiněném rozhodnutí, ale kdyby objasnil nějaké větší a důležitější případy a kauzy, možná by lidé získali větší důvěru v celý proces?

Pokud jde o moderování obsahu, Facebook a podobné společnosti čelí složitým výzvám. Nelehká role vyžaduje vysoké nasazení a navíc se zdá, že veškerá debata na toto téma teprve začíná.

Total
1
Shares
Další články
Přečtěte si více

Infografika: Falešné účty (nejen) na Twitteru

Přes dvě třetiny followerů nejpopulárnějších účtů na Twitteru jsou uživatelé buď neaktivní, nebo rovnou falešní. Jednou z nejhorších je Shakira, ta jich má v součtu skoro 80 procent. Tvrdí to infografika věnovaná falešným účtům na sociálních médiích.
Přečtěte si více

Průzkum: Hashtagy na Facebooku nepomáhají, spíš naopak

Tým kolem nástroje EdgeRank Checker se rozhodl zjistit, jak používání hashtagů na Facebooku podporuje viralitu. To, co zjistil, však rozbilo všechna očekávání. Hashtagy totiž nejenže viralitě nepomáhaly, ale navíc ji snižovaly a příspěvky s hashtagy měly i nižší engagement. Na vině jsou ale podle všeho i ti, kdo hashtagy používají.