Regulação da Inteligência Artificial: AI Act na União Europeia e PL 2338/2023 no Brasil

por Igor Burigo

A Inteligência Artificial (IA) é uma das tecnologias mais promissoras e impactantes do século XXI, prometendo revolucionar diversas áreas da sociedade e da economia. Alguns setores se destacam na vanguarda das iniciativas de IA, sendo que soluções como IDx-DR (saúde), Duolingo (educação) e Tesla Autopilot (transporte) têm impactado significativamente as suas respectivas áreas.

Apesar dos inegáveis benefícios, a crescente adoção dos sistemas de IA levanta questões importantes sobre os potenciais riscos envolvidos no uso das novas tecnologias, como a ética, transparência, proteção de dados e não discriminação. Por esse motivo, governos de todo o mundo têm buscado formas de regulamentar o desenvolvimento de uso de uma IA responsável.

Nesse sentido, a União Europeia (UE) deu um passo significativo ao promulgar o AI Act, tornando-se a primeira jurisdição do mundo a adotar uma legislação abrangente sobre IA. Com a sua versão final aprovada na última semana, o regulamento estabelece diretrizes claras para o desenvolvimento e uso ético da IA, buscando equilibrar inovação e proteção dos direitos individuais — sedimentados na Carta de Direitos Fundamentais da UE.

Um dos aspectos-chave do AI Act é a classificação de risco dos sistemas de IA, dividindo-os nas categorias inaceitável, alto, limitado e mínimo. Essa classificação orienta as restrições e requisitos aplicáveis a cada tipo de sistema, com o objetivo de mitigar potenciais danos e abusos.

De acordo com o regulamento, os sistemas de IA de risco inaceitável são proibidos devido ao seu potencial de causar danos graves aos direitos humanos e à sociedade. Exemplos incluem sistemas que utilizam IA para avaliar o risco de crimes com base em características físicas/psicológicas ou para realizar identificação biométrica em espaços públicos.

Por sua vez, os sistemas de risco alto possuem podem ser desenvolvidos, implementados e disponibilizados, mas os agentes que fornecerem ou operaram esses sistemas são submetidos a obrigações adicionais específicas, como a elaboração de documentação técnica e o registro automático da operação do sistema.

Enquanto isso, no Brasil, a regulamentação da IA já está em discussão no Congresso Nacional desde o Projeto de Lei (PL) 21/20, que foi aprovado na Câmara dos Deputados, mas travado no Senado Federal por conta de seu caráter excessivamente principiológico e da falta de diretrizes específicas aos desenvolvedores, fornecedores e operadores dos sistemas de IA.

Atualmente, o PL 2338/2023 é a iniciativa mais avançada e com reais chances de se tornar a regulamentação brasileira envolvendo IA. O projeto compartilha algumas semelhanças com o AI Act, mas também apresenta características específicas, como uma abordagem que confere maior autonomia ao mercado para autorregulação por meio de práticas de governança corporativa.

A regulação da IA é um tema complexo e em constante evolução, que envolve não apenas questões técnicas e jurídicas, mas também éticas e sociais. Essa discussão está longe de ser encerrada, tanto na União Europeia quanto no Brasil e em todo o mundo, visto que os impactos da IA ultrapassam fronteiras geográficas e exigem uma abordagem global e colaborativa para garantir que essa tecnologia seja utilizada de forma ética, segura e inclusiva.