A recente decisão da Meta (Facebook, Instagram, Whatsapp) de abandonar o seu programa de verificação de factos nos Estados Unidos em favor de um sistema baseado em «notas da comunidade» está a levantar um clima de insegurança. Ao invés de manter um esforço de moderação profissional, o Facebook de Mark Zuckerberg parece entregar a responsabilidade da verificação de factos aos próprios utilizadores, à semelhança do que Elon Musk tem implementado no X (antigo Twitter).
Assim, esta alteração convoca a visão de uma dança coordenada entre Zuckerberg, Musk e Trump, três figuras com ideias que, embora divergentes em muitos aspectos, parecem encontrar terreno comum na minimização da moderação de conteúdos. Bailam e movem-se em sincronia no mesmo ritmo da liberdade ilimitada, mesmo que isso signifique um passo em falso no combate à desinformação. Numa nova era do poder digital, há perigos à espreita que podem assombrar as democracias contemporâneas.
A mudança de paradigma: sabedoria das massas ou risco de mais desinformação?
Zuckerberg justificou a alteração afirmando que o programa de fact-checking estava cheio de «erros» e «excessiva censura». A alternativa? Confiar na avaliação dos próprios utilizadores, numa tentativa de democratizar a veracidade das informações. Mas será que este modelo, que confia na sabedoria das massas em vez de uma verificação profissional, consegue realmente combater a desinformação de forma eficaz?
Na mudança de paradigma com a aproximação de um novo governo nos Estados Unidos sob a liderança de Donald Trump, as plataformas digitais têm sido alvo de críticas recorrentes de aliados conservadores e figuras políticas da direita, que acusam as redes sociais de práticas de censura, especialmente contra vozes que defendem ideais daquele quadrante político. Isso intensifica o debate sobre o papel das plataformas na liberdade de expressão e pressiona o sistema de verificação de factos que tem vindo a ser aplicado nos últimos anos.
Apesar disso, importa as preocupações das pessoas relativamente à desinformação. O relatório da Reuters elaborado no último ano revelou que 72% dos cidadãos portugueses estão preocupados com a veracidade das informações online, especialmente nas redes sociais, que são vistas como a principal fonte de desinformação.
Além disso, a nível global, no conjunto dos 47 países estudados, 59%, dos mais de 90 mil respondentes, dizem-se preocupados com o que é real e falso online. Para se ter uma ideia dos perigos da desinformação, quase 90% da população brasileira admite ter acreditado em conteúdos falsos, segundo uma pesquisa do Instituto Locomotiva divulgada pela Agência Brasil.
Desafios na União Europeia: a tensão com o Digital Services Act
A recente mudança da Meta, que substituiu o seu programa de verificação de factos por um sistema de notas da comunidade, pode entrar em conflito com o Regulamento dos Serviços Digitais (DSA) da União Europeia. Esta entidade exige moderação rigorosa de conteúdos e combate eficaz à desinformação.
O comissário europeu Thierry Breton já alertou as plataformas para a necessidade de cumprirem a legislação. A rede social de Zuckerberg enfrenta agora escrutínio sobre se o novo sistema está em conformidade com as regras da UE. A Comissão Europeia enviou uma solicitação à Meta, a pedir informações detalhadas sobre as suas práticas de moderação.
Se a Meta não se ajustar aos requisitos, estará eventualmente sujeita a multas elevadas. Este é um teste crucial para a empresa poder garantir que os conteúdos nocivos não sejam amplificados nas redes sociais. Este momento define não apenas o futuro da Meta, mas também a capacidade da União Europeia de impor normas que protejam a integridade da informação no espaço digital.
A dança entre Zuckerberg, Musk e Trump: é esta a direção certa?
Ao assumir esta postura mais permissiva, Zuckerberg parece caminhar na mesma direção de Musk e Trump, que têm sido críticos ferozes da moderação de conteúdos. Ao mesmo tempo, esta abordagem coloca em questão o papel das plataformas digitais como responsáveis por criar um espaço seguro para o debate democrático.
Será que dar mais liberdade aos utilizadores vai resultar num ambiente mais saudável ou apenas ampliar as bolhas de desinformação e polarização?
Uma investigação publicada na arXiv analisou o impacte de políticas de moderação mais restritivas na plataforma Parler, tendo observado uma diminuição significativa na toxicidade do conteúdo após a implementação de medidas mais rigorosas. Este estudo sugere que a moderação eficaz pode reduzir a disseminação de conteúdo prejudicial e melhorar a qualidade das interações online.
Além disso, uma análise de mais de 100.000 comunidades online revelou que aquelas com viés político mais acentuado tendem a compartilhar fontes de notícias mais polarizadas e com menor rigor. Este comportamento contribui para a criação de câmaras de eco, onde os utilizadores são expostos principalmente a informações que reforçam as suas crenças preexistentes, exacerbando a polarização.
Olhar para o futuro
O futuro da verificação de factos nas redes sociais parece estar a tornar-se mais complexo. Com a Meta a adotar uma abordagem mais flexível, as questões que importam são as seguintes: as plataformas estarão a perder o controlo sobre a qualidade da informação partilhada? Ou será que, como defendem Musk e Trump, as redes sociais devem ser locais livres onde cada utilizador tem o poder de moldar a realidade à sua maneira?
O impacte dessa mudança será sentido especialmente na Europa, onde a desinformação tem sido um tema central nas discussões políticas. Será que a Meta terá de repensar a sua decisão, ou será esta uma nova normalidade no ecossistema digital? A seguir, ficará claro quem vai dançar o ritmo da desinformação – ou se, eventualmente, os efeitos dessa dança serão compassados em direção a uma maior responsabilidade das plataformas digitais.


