Olá, meus amigos! Hoje, na minha coluna Emdireito, vamos tratar de um tema que parece futurista, mas já faz parte do nosso presente: a regulamentação da inteligência artificial no Brasil. Com o avanço das tecnologias e seu impacto direto na vida do cidadão, o Congresso Nacional vem discutindo o Projeto de Lei nº 2.338/2023, que institui o Marco Legal da Inteligência Artificial. O que está em jogo vai muito além da inovação: envolve o equilíbrio entre desenvolvimento tecnológico, proteção de dados e os direitos fundamentais garantidos pela nossa Constituição.
O projeto, de autoria do senador Rodrigo Pacheco, propõe uma regulação geral da IA no Brasil, com o objetivo de garantir que sistemas automatizados e algoritmos atuem de forma ética, transparente, segura e responsável. Ele traz princípios que devem nortear o desenvolvimento e o uso da IA, como:
- Respeito aos direitos humanos e à dignidade da pessoa;
- Igualdade, não discriminação e justiça social;
- Proteção à privacidade e aos dados pessoais;
- Transparência e explicabilidade dos sistemas de IA;
- Responsabilização por danos causados por sistemas automatizados.
A proposta segue diretrizes de marcos internacionais, como o Regulamento de Inteligência Artificial da União Europeia, que já está em processo de implementação, e recomendações da OCDE (Organização para a Cooperação e Desenvolvimento Econômico).
A regulamentação da IA não é apenas uma questão técnica. Ela toca diretamente os direitos constitucionais do cidadão brasileiro, como o direito à intimidade, à privacidade (art. 5º, X da CF/88), à igualdade (art. 5º, caput), à liberdade de expressão e ao devido processo legal (art. 5º, LIV e LV).
Sem uma legislação clara, sistemas de IA podem reproduzir ou até mesmo ampliar preconceitos, discriminar usuários com base em dados enviesados ou tomar decisões que afetam vidas humanas sem transparência ou possibilidade de contestação.
Imagine, por exemplo, um sistema bancário que nega crédito com base em um algoritmo opaco, ou uma seleção de currículos feita por IA que reproduz preconceitos de gênero ou raça. A ausência de regulação pode transformar a tecnologia em instrumento de exclusão.
Tanto empresas quanto órgãos públicos precisarão seguir regras mais rígidas se o PL for aprovado. O projeto prevê: - Obrigatoriedade de análise de riscos em sistemas de IA sensíveis (como os usados na área da saúde, justiça, educação ou segurança pública);
- Mecanismos de auditoria e governança algorítmica;
- Proibição de IA que possa representar riscos excessivos à dignidade humana, como sistemas de vigilância massiva não autorizados.
Isso significa que grandes plataformas digitais, aplicativos de serviços públicos e empresas que usam algoritmos para decisões automáticas terão de se adequar, prestando contas à sociedade.
O PL também reforça o direito do consumidor, inclusive no ambiente digital. De acordo com o texto, qualquer cidadão afetado por uma decisão automatizada tem direito a saber como essa decisão foi tomada, podendo inclusive solicitar revisão humana.
Essa garantia dialoga diretamente com o Código de Defesa do Consumidor (CDC) e com a Lei Geral de Proteção de Dados (Lei nº 13.709/2018 – LGPD), que já asseguram a proteção contra práticas abusivas e a obrigação de informação clara, adequada e transparente por parte dos fornecedores.
O projeto prevê a criação de uma Autoridade Nacional de Inteligência Artificial, que funcionaria de forma coordenada com a Autoridade Nacional de Proteção de Dados (ANPD). Essa entidade teria a missão de fiscalizar, editar normas complementares, aplicar sanções e promover a cultura ética da IA no país.
Críticos do projeto alertam para o risco de burocratizar a inovação e prejudicar o ecossistema de startups no Brasil. Já defensores da proposta lembram que a ausência de regras claras pode gerar insegurança jurídica, ampliar desigualdades e permitir abusos.
Em países como os Estados Unidos, a Casa Branca emitiu recentemente uma Ordem Executiva para exigir diretrizes éticas e de segurança na IA. A União Europeia, por sua vez, classificou sistemas de IA em categorias de risco, proibindo o uso de tecnologias de vigilância preditiva e exigindo avaliações de impacto nos casos mais sensíveis.
O Brasil caminha nesse mesmo sentido, mas o grande desafio será implementar essa legislação de forma eficaz e sem sufocar o desenvolvimento tecnológico.
A inteligência artificial já influencia o que consumimos, o que vemos nas redes sociais, como somos avaliados no mercado de trabalho e até decisões judiciais. Diante disso, não é mais possível tratar esse tema com neutralidade. Precisamos garantir que os algoritmos sirvam à democracia e à cidadania, e não o contrário.
A aprovação do PL 2.338/2023 pode ser o passo mais importante da década para equilibrar liberdade de inovação com responsabilidade social. E nós, como cidadãos e consumidores, temos o direito (e o dever) de acompanhar esse debate de perto.
Até domingo que vem.
E se quiser continuar essa conversa, me acompanhe nas redes sociais: @andrelobatoemdireito. Até a próxima!