Home > Destaques > Moderação de conteúdo das redes sociais é um desafio

Moderação de conteúdo das redes sociais é um desafio

Foto: Pixabay

A regulação das redes sociais voltou a ser debatida, após uma série de ataques em escolas. Além de a Polícia Federal ter aberto inquérito para investigar as redes, simultaneamente, o assunto está sendo analisado na Câmara dos Deputados, Supremo Tribunal Federal (STF), Ministério da Justiça e Advocacia Geral da União (AGU). Para entender mais sobre esses desafios, o Edição do Brasil conversou com Adriano Menezes Hermida Maia, advogado e especialista em direito digital e cibercrimes.

Quais seriam os caminhos jurídicos para lidar com as condutas das redes sociais e garantir boas práticas de segurança?
Existem várias abordagens jurídicas que podem ser utilizadas para lidar com as condutas das redes sociais e garantir boas práticas de segurança. Isso inclui a criação de novas leis e regulamentações, bem como a aplicação das normas existentes, a proteção de dados pessoais, o direito à privacidade e responsabilidade civil e criminal.

Quais os desafios para que os conteúdos danosos à população sejam rastreados?
Um dos principais desafios é a complexidade da tecnologia envolvida, como a criptografia de ponta a ponta, que dificulta a identificação dos usuários responsáveis pelo material. Além disso, as empresas geralmente se esquivam da responsabilidade pelo conteúdo gerado pelos usuários, argumentando que são apenas plataformas e não editores.

O que as empresas que comandam as redes sociais podem e não podem ser responsabilizadas?
As empresas de tecnologia podem ser responsabilizadas por várias condutas, incluindo a disseminação de informações falsas, o discurso de ódio e a violação da privacidade dos usuários. No entanto, a responsabilidade delas é frequentemente limitada pela legislação atual, que as protege como meras plataformas que hospedam conteúdo gerado pelos usuários.

É consenso que as plataformas e aplicativos de mensagens servem como arcabouços para a radicalização e preparação para atos violentos?
Embora haja evidências de que as plataformas de mídia social possam contribuir para a radicalização e a preparação para atos violentos, não há consenso sobre o grau em que isso ocorre. Algumas pesquisas sugerem que as redes sociais podem amplificar as vozes extremistas e facilitar a comunicação entre grupos radicais, mas outras argumentam que não são, necessariamente, a causa da radicalização.

Como fazer a regulação desse conteúdo radical sem abrir um precedente autoritário?
A regulação do conteúdo radical em redes sociais é um desafio complexo que exige equilibrar a proteção da liberdade de expressão com a necessidade de evitar o discurso de ódio e a violência. É importante que as leis e regulamentações sejam claras e precisas, evitando ambiguidades que possam levar a interpretações excessivamente amplas e, consequentemente, à restrição indevida.

A questão do algoritmo também seria uma parte importante a ser debatida?
Sim, essa é uma parte muito importante do debate. Eles podem contribuir para a disseminação de conteúdos enganosos ou danosos, ao mesmo tempo em que reforçam bolhas de informação e filtros, limitando a diversidade de opiniões. A normatização de algoritmos pode ser uma forma de aumentar a transparência e a responsabilidade das plataformas.

Existe algum modelo de regulação e moderação no exterior que o Brasil poderia se inspirar?
Existem vários modelos de regulação e moderação no exterior que o Brasil poderia se inspirar. Por exemplo, a União Europeia introduziu recentemente a Lei de Serviços Digitais (Digital Services Act), que visa aumentar a responsabilidade das plataformas por conteúdo prejudicial. Além disso, a Alemanha promulgou uma lei, em 2017, que obriga as redes sociais a remover rapidamente conteúdo ofensivo e ilegal, sob pena de multas pesadas.