Após uma semana dura de críticas ao Facebook — com direito ao
CEO Mark Zuckerberg dizendo que aqueles que negam o holocausto não “estão errando intencionalmente” —, o gigante das redes sociais anunciou que vai começar a apagar notícias falsas que provocam violência no mundo real.
• A pena do Facebook no Reino Unido pelo escândalo da Cambridge Analytica é “dinheiro de troco”
• Identificação de quem pagou por anúncios políticos no Facebook vai chegar ao Brasil
Essa nova política, segundo o New York Times,
é “uma resposta aos episódios ocorridos em Sri Lanka, Myanmar e Índia”,
onde rumores rapidamente espalhados no Facebook levaram a ataques a
pessoas de minorias étnicas. O jornal diz ainda que funcionários do
Facebook admitem ter responsabilidade em restringir esse tipo de
conteúdo:
“Identificamos que há um tipo de
desinformação que é compartilhada em alguns países que podem incitar
tensões e causar danos físicos no mundo real”, disse Tessa Lyons,
gerente de produtos do Facebook. “Temos uma ampla responsabilidade não
só de reduzir esse tipo de conteúdo, mas de removê-lo.”
Em um outro comunicado à CNBC,
um porta-voz do Facebook caracterizou a política como uma ofensiva
contra um tipo específico de conteúdo que eles consideram digno de
remoção, embora defenda sua abordagem liberal em outros posts com
conteúdo duvidoso:
“Reduzir a distribuição
de informações falsas — em vez de removê-las completamente — estabelece o
balanço entre liberdade de expressão e uma comunidade segura e
autêntica”, disse um porta-voz do Facebook à CNBC. “Há certas
formas de informações falsas que contribuíram para a ocorrência de danos
físicos, e estamos fazendo uma mudança de política que nos permitirá
tirar esse tipo de conteúdo do ar. Vamos começar a implementar isso nos
próximos meses.”
O Facebook informa ainda que essa política contará
com a ajuda de grupos da sociedade civil para identificar conteúdos em
texto e imagem com o propósito de “contribuir ou exacerbar a violência
ou danos físicos” para remoção. A CNBC diz ainda que o processo
envolverá tecnologias internas do Facebook de reconhecimento de imagem,
presumivelmente um sistema parecido com o que tenta remover pornô de vingança do site.Isso
já é uma melhoria, em comparação com a situação atual. Por exemplo, no
Sri Lanka e em Myanmar, a companhia foi alvo de críticas por ONGs locais
por não fazer nada em casos de incitação à violência e propaganda que
circulavam pela rede social. Em ambos os países,
apesar de ter largas bases de usuários, relatos indicam que o Facebook
não contratou uma equipe grande o suficiente para moderar conteúdos.
Fazer parcerias com organizações locais pode ajudar o site a deixar de
agir como uma plataforma ausente.
No entanto, isso provavelmente
está longe de ser uma correção ao problema. Por exemplo, o processo de
classificação de algo como inapropriado pelo Facebook geralmente é negligente. A rede frequentemente confia em métodos automatizados que são fáceis de serem contornados ou em outros que simplesmente acabam dando errado (como foi o caso da sinalização de notícias como questionáveis, que nem chegou a ser lançado no Brasil).
Como aponta o New York Times,
há outras duas soluções que a rede social vai adotar: reduzir o alcance
de posts indicados como falsos por checadores de informações e
adicionar links relacionados com notícias verdadeiras quando tais links
forem compartilhados. Embora os métodos possam ter impactos, agências de
checagem de notícias já expressaram preocupação sobre o sistema do site ser muito restrito para ser eficaz.
Além
disso, o jornal norte-americano informa que o Facebook não tem planos
de lançar iniciativas semelhantes para o WhatsApp, que tem sido usado
para espalhar notícias falsas que já levaram a pelo menos uma dezena de vítimas mortais, porém o Instagram está incluído na iniciativa:
As
novas regras se aplicam a outra propriedade do Facebook, o Instagram,
mas não ao WhatsApp, em que notícias falsas também têm sido
disseminadas.
Na Índia, por exemplo, rumores espalhados na plataforma sobre sequestro de crianças levou à violência da população.
Monitorar o que acontece no WhatsApp pode ser mais difícil ou
impossível, pois o Facebook não consegue ver o conteúdo compartilhado
das mensagens, a não ser que a rede enfraqueça a criptografia da
plataforma. Então, a situação é mais complexa. Para se ter uma ideia, as
autoridades na Índia, como noticia o Economic Times, ainda consideram administradores de grupo do WhatsApp responsáveis pelos conteúdos compartilhados.Além
disso tudo, tem o fato de o Facebook dizer que está comprometido com a
liberdade de expressão, o que é ótimo na teoria, mas vago na prática,
pois parece que a ideia é se proteger de críticas. Ligado a isso está um
post de 2016 do Gizmodo,
que informou que havia enviesamento em uma seção de notícias que
estavam bombando no site, o que fez com que grupos conservadores nos EUA
acusassem a rede de censura. O site InfoWars, por exemplo, compartilhou
uma teoria da conspiração sobre uma pizzaria em Washington, nos EUA,
supostamente envolvida com tráfico humano e pornografia infantil. Aí
simplesmente um atirador foi até o local para tentar salvas as crianças
que estavam supostamente presas lá.
De qualquer jeito, como lembra o Washington Post, é difícil a coexistência dessa abordagem do Facebook se a rede deixar atores mal-intencionados continuarem no site.
Esses problemas são inumeráveis. Como Max Read, um ex-editor da Gawker, escreveu recentemente,
eles talvez não sejam passíveis de solução sem uma reestruturação
radical da companhia, dado que a escala do Facebook é agora tão grande
que torna difícil a imposição de um “poder soberano sem
responsabilização” (ou uma visão coerente do que a rede deveria ser).
“Nem sempre existe uma linha clara”, disse a gerente de produtos Tessa Lyons ao New York Times. “Tudo isso é desafiador — por essa razão estamos evoluindo. Por isso estamos levando a sério os feedbacks.”