No dia 7 de janeiro, Mark Zuckerberg, fundador e líder da Meta (dona do Facebook, Instagram, Threads e WhatsApp), anunciou que a empresa vai abandonar o programa de checagem de fatos, que será substituído por um sistema conhecido como “Notas da Comunidade”. A decisão pode ser um retrocesso no combate contra as fake news e mostra um alinhamento de Zuckerberg e da Meta com o governo Donald Trump.
O Ministério Público Federal (MPF) enviou um ofício à Meta solicitando esclarecimentos se as mudanças anunciadas pela empresa nos Estados Unidos afetarão os direitos dos usuários dessas plataformas no Brasil. Para discutir o assunto, o Edição do Brasil conversou com Chayana de Rezende, advogada especialista em direito digital.
A decisão da Meta de encerrar o sistema de checagem de fake news pode trazer implicações jurídicas para a plataforma?
A Meta, ao abandonar a checagem, parece optar por se afastar de um papel mais ativo na moderação de conteúdo, possivelmente para evitar acusações de censura ou enviesamento político. Contudo, isso pode enfraquecer os esforços para conter a disseminação de fake news e gerar implicações jurídicas. No governo atual, onde existe uma maior vigilância sobre os discursos de ódio e desinformação, a decisão da Meta pode ser vista como um retrocesso. O desafio está em encontrar o equilíbrio entre garantir a liberdade de expressão e adotar mecanismos que evitem que essa liberdade seja utilizada para desinformar ou incitar violência.
Essa mudança na política de moderação pode abrir precedente para ações judiciais contra a Meta no Brasil, especialmente em relação ao cumprimento do Marco Civil da Internet e da Lei Geral de Proteção de ados (LGP)?
Sim, essa mudança pode levar a um aumento de ações judiciais, especialmente se ficar demonstrado que a ausência de mecanismos de moderação contribuiu para danos a terceiros. O Marco Civil da Internet impõe a responsabilidade das plataformas em remover conteúdo após ordem judicial. Já a LGPD pode ser invocada se os dados pessoais de usuários forem usados indevidamente para impulsionar a disseminação de fake news, especialmente se causarem danos morais ou materiais.
Qual a sua opinião sobre a compatibilidade entre a nova política da Meta e as obrigações que a empresa tem com a legislação brasileira?
Embora a LGPD não trate diretamente de fake news, os impactos causados por informações falsas baseadas em dados pessoais podem ser interpretados como uma violação aos princípios da transparência, segurança, e prevenção, previstos na lei. Nesse contexto, se a disseminação de notícias falsas envolver o uso indevido de dados pessoais ou algoritmos que amplifiquem conteúdos prejudiciais, a Meta pode ser responsabilizada por omissão ou má gestão desses dados.
A empresa pode perder dinheiro de publicidade com a saída de empresas anunciantes?
Sim, há um risco significativo de perda de receita publicitária. Muitas empresas estão cada vez mais preocupadas com a reputação de suas marcas e buscam associar suas campanhas às plataformas que demonstrem compromisso com o combate à desinformação e ao discurso de ódio. Com a decisão da Meta de abandonar a checagem de fake news, empresas anunciantes podem interpretar isso como uma postura negligente ou um enfraquecimento dos esforços para garantir um ambiente digital seguro e ético.
Quais são os direitos dos usuários que se sentem prejudicados por fake news ou ofensas publicadas nas redes sociais?
Os usuários têm direito à reparação por danos morais, materiais ou à sua reputação quando prejudicados por fake news ou ofensas nas redes sociais. A legislação brasileira oferece diversas ferramentas para que as vítimas busquem justiça: Marco Civil da Internet (Lei 12.965/2014), Código Civil e LGPD. Mas é essencial que as vítimas sejam proativas na defesa de seus interesses. A busca pela justiça também contribui para o fortalecimento de um ambiente digital mais responsável e ético.
Há uma lacuna jurídica no Brasil sobre a responsabilidade das plataformas em relação à moderação de conteúdo, que facilita decisões como a da Meta?
Sim, a legislação brasileira ainda apresenta lacunas em relação à responsabilidade das plataformas na moderação de conteúdo. O Marco Civil da Internet, por exemplo, foca na retirada de conteúdos apenas após ordem judicial, mas não estabelece critérios claros para a autorregulação ou checagem prévia. Isso abre margem para decisões como a da Meta, que, apesar de polêmicas, não necessariamente infringem a legislação atual.