“STF do Facebook” analisa caso brasileiro de desinformação envolvendo post contra lockdown

Publicação brasileira utilizou declarações foras de contexto da OMS para repudiar lockdown. Foto: Cristiana Isidoro/Shutterstock
Criado em maio de 2020 para combater a desinformação na plataforma, o Comitê de Supervisão do Facebook — uma espécie de “STF da rede social” — tem um novo caso brasileiro na mira. O órgão agora vai analisar uma publicação feita por um conselho médico estadual do Brasil, de março deste ano, que distorce informações da Organização Mundial da Saúde (OMS) para contestar a eficácia do lockdown no combate contra a pandemia de Covid-19. No post, que foi visualizado cerca de 32 mil vezes e já teve mais de 270 compartilhamentos, há uma suposta citação de David Nabarro, da OMS, alegando que “o lockdown não salva vidas e torna os pobres mais pobres”. Além disso, a publicação no Facebook relaciona o aumento do número de casos no Amazonas com a paralisação feita na região O problema é que trata-se de uma publicação enganosa, tirada de contexto: a OMS ressalta que o lockdown pode ter um impacto negativo para a economia e não é sustentável no longo prazo. No entanto, a entidade internacional reconhece a importância da prática para frear a transmissão do coronavírus e não afirmou, em momento nenhum, que a paralisação das atividades é ineficaz diante da crise sanitária global. Diante do post, o próprio Facebook tratou de enviar o caso ao Comitê, no dia 2 de junho. Contudo, a decisão não é tão simples quanto parece. Isso porque a rede social chegou a afirmar que apesar de o conteúdo não “violar as políticas do Facebook, ainda pode ser lido por algumas pessoas como um defensor de certas medidas de segurança durante a pandemia“. O prazo para que o Comitê emita uma decisão é de, em média, 90 dias. Isso significa que a decisão deverá ser divulgada nas próximas semanas e pode significar uma mensagem importante sobre as políticas do Facebook contra casos de desinformação em sua plataforma. Com isso, a publicação torna-se a segunda ocorrência brasileira a ser discutida pelo Comitê, mas a primeira a ser relacionada com o problema de desinformação. A primeira envolvia uma publicação com imagens que mostravam sintomas de câncer de mama. O post havia sido excluído por apresentar fotografias de seios femininos — uma violação das regras de comunidade do Facebook —, mas foi restaurado posteriormente após apelação feita pela criadora da publicação.

Discussão

Enquanto o veredito do Comitê da rede social de Mark Zuckerberg não vem à tona, entidades discutem a melhor forma de solucionar o caso. O centro de pesquisa em direito e tecnologia InternetLab, por exemplo, acredita que marcar a publicação como enganosa seria a melhor opção. “Ainda que não se verifique risco iminente à integridade física a justificar a exclusão ou limitação da visibilidade do conteúdo na rede social, seria apropriado que o Facebook rotulasse o conteúdo como desinformativo, proporcionando informação adequada aos usuários”, afirmou a entidade. Já para Diogo Coutinho, professor da Faculdade de Direito da USP, a decisão poderia resultar em uma remoção de conteúdo pelo Facebook. “Nesse caso em específico acho razoável que a postagem seja removida porque é extremamente problemática — ela tem, no mínimo, frases distorcidas. Entendo que é uma postagem que pode causar danos às pessoas”, opinou. Independentemente da decisão a ser tomada, o Facebook precisará ter em mente que o veredito abrirá um precedente para futuros eventos similares. Logo, a rede social precisa informar um padrão claro de como lida com as desinformações em sua plataforma, especialmente em tempos de crise sanitária. Apesar disso, a discussão é vista como um movimento importante na regulação das plataformas digitais. Embora a manutenção do Comitê possa significar algo de alto custo no longo prazo — com investimentos superiores a US$ 130 milhões —, se bem sucedido, o modelo poderá tornar-se referência, sendo adotada pelas demais redes sociais. Fonte: Estadão
Zeudir Queiroz

Compartilhar notícia: