Aprovado em votação simbólica no plenário do Senado, o Projeto de Lei (PL) 2.338/2023 visa a regulamentação da inteligência artificial (IA) no Brasil. O texto, elaborado a partir de proposta do presidente do Senado, Rodrigo Pacheco (PSD), teve o seu substitutivo do senador Eduardo Gomes (PL). Agora, a matéria segue para a Câmara dos Deputados, onde será discutida e votada. Caso seja aprovada, vai para a sanção do presidente da República.
Segundo a presidente da Comissão de Direito Digital da OAB/MG, Chayana Rezende, o PL 2.338/2023 estabelece parâmetros legais para o uso da IA no Brasil, especialmente em um momento em que essas tecnologias estão cada vez mais presentes em setores estratégicos.
“O projeto propõe uma base normativa sólida que promove o uso da inteligência artificial de forma ética, segura e transparente, buscando mitigar riscos, como discriminação, vieses algorítmicos e violações de privacidade. Também alinhamento com a proteção de dados, fortalecendo direitos dos titulares, exigindo maior responsabilidade de desenvolvedores e operadores de IA, além do fomento a governança e a fiscalização”.
Um dos pontos no texto é o estabelecimento de regras mais rígidas para os sistemas de IA consideradas de alto risco, que podem impactar a saúde, segurança ou os direitos fundamentais dos cidadãos. Para Chayana, é necessário definir categorias específicas de alto risco, para evitar insegurança jurídica. “O texto poderia incluir exemplos concretos, como sistemas de reconhecimento facial em espaços públicos, decisões automatizadas que afetam acesso a crédito ou emprego, e aplicações na área de saúde, para delimitar claramente as áreas prioritárias, além de estabelecer parâmetros técnicos objetivos e promover avaliações de impacto regulares”.
Por outro lado, Chayana acredita que o texto traz algumas partes que precisam ser ajustadas, com maior precisão técnica e interseção em outras normas, como a Lei Geral de Proteção de Dados Pessoais (LGPD) e as exceções ampliadas. “Alterações recentes ampliaram exceções para determinadas aplicações de IA, o que pode enfraquecer a proteção de direitos em áreas sensíveis, como reconhecimento facial e segurança pública”.
Ela considera que o texto é um passo importante, podendo ser aprimorado para equilibrar a promoção da inovação com a proteção dos direitos fundamentais e assegurar segurança jurídica para empresas, desenvolvedores e cidadãos. “O desafio desse PL é duplo: criar um ambiente favorável à inovação tecnológica e, ao mesmo tempo, proteger direitos fundamentais de forma robusta. Com ajustes que promovam clareza normativa, incentivos proporcionais e um diálogo contínuo com todos os atores envolvidos, é possível construir um marco regulatório que não apenas posicione o Brasil como um líder em IA, mas também garanta a segurança e os direitos de sua população”.
Impacto nas empresas
O texto também prevê a exigência de avaliações de impacto. Chayana explica que o mecanismo crucial serve para garantir que os sistemas de IA sejam desenvolvidos e utilizados de forma ética e responsável. “Essas avaliações têm como objetivo identificar, mitigar e documentar os riscos associados ao uso da inteligência artificial, promovendo transparência e responsabilidade. As empresas devem adotar algumas medidas como a criação de estruturas internas de governança e o desenvolvimento de políticas de compliance em IA”.
Chayana finaliza lembrando que essas avaliações podem trazer desafios às empresas como a complexidade técnica das ações, os custos elevados para pequenos e médios negócios e sobreposição normativa, principalmente com a LGPD. “As empresas devem encarar as avaliações de impacto não apenas como uma obrigação legal, mas como uma oportunidade para demonstrar compromisso com práticas éticas e responsáveis. No entanto, é fundamental que o PL seja acompanhado de regulamentações claras e de incentivos para o desenvolvimento de ferramentas e metodologias que auxiliem as organizações no cumprimento dessas exigências”.