

Senado Federal aprova marco regulatório da inteligência artificial no Brasil
Projeto de Lei estabelece as medidas de governança, assegura os direitos dos indivíduos ou grupos afetados e caracteriza sistemas de IA de alto risco e risco excessivo
Assuntos
O Senado Federal aprovou, em 10 de dezembro de 2024, o Projeto de Lei nº 2.338/2023 que estabelece um marco regulatório nacional para o desenvolvimento, uso e governança de sistemas de inteligência artificial (IA) no Brasil. Dentre outras disposições, o texto reflete compromissos com a centralidade da pessoa humana, inovação responsável, competitividade do mercado de IA e garantias da implementação de sistemas seguros e confiáveis. A versão aprovada do PL de IA pelo Senado Federal ainda dependerá de análise da Câmara dos Deputados e posterior sanção presidencial para sua entrada em vigor.
Veja abaixo os principais temas da atual versão do PL aprovada pelo Senado Federal:
Direitos da pessoa ou grupos afetados
O marco regulatório define um conjunto de direitos que visam proteger pessoas ou grupos afetados por sistemas de IA, tais como:
- Direito de ser informado sobre o uso de IA em suas interações com os sistemas, com explicações claras e acessíveis;
- Direito de solicitar a revisão, por humanos, de decisões automatizadas em determinadas circunstâncias;
- Direito à não discriminação ilícita ou abusiva, bem como à correção de vieses discriminatórios diretos ou indiretos.
Categorização de riscos
O projeto classifica os sistemas de IA com base em seu grau de risco, considerando uma avaliação preliminar realizada pelos desenvolvedores, distribuidores e aplicadores que atuam na cadeia de valor e na governança interna de sistemas de IA (agentes de IA).
O sistema de IA poderá ser classificado em duas categorias:
- Sistemas de Risco Excessivo, que são as IAs empregadas com o propósito de: manipular comportamentos para causar danos à saúde, segurança ou aos direitos fundamentais de terceiros; avaliar os traços de personalidade, as características ou o comportamento passado para avaliação de risco de cometimento de crime, infrações ou de reincidência; possibilitar a produção e disseminação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes; aplicar em sistemas de armas autônomas, recaptura de réus evadidos, etc. Em regra, o desenvolvimento, a implementação e o uso dos sistemas de IA de risco excessivo são vedados pelo PL de IA;
- Sistemas de Alto Risco, que são as IAs empregadas na: gestão e funcionamento de infraestrutura crítica (controle de trânsito, abastecimento de água e eletricidade); na administração da Justiça; em veículos autônomos; no recrutamento, triagem, filtragem, avaliação de candidatos; na área de saúde; sistemas de identificação e autenticação biométrica para o reconhecimento de emoções, etc. Os sistemas de alto risco podem ser desenvolvidos, implementados e usados no Brasil desde que os agentes de IA cumpram com obrigações específicas. Em regra, estes sistemas serão submetidos à avaliação de impacto algorítmico, supervisão humana e adoção de medidas de transparência para minimizar riscos à saúde, segurança e direitos fundamentais das pessoas ou grupos afetados.
Governança responsável
O PL estabelece diretrizes para garantir a governança responsável das IAs, exigindo que todos os agentes garantam a segurança dos sistemas e o exercício dos direitos de pessoas ou grupos afetados.
As regras de governança responsável se estendem a todos os agentes da IA, com responsabilidades específicas para desenvolvedores, distribuidores e aplicadores. Tais medidas de governança podem incluir a elaboração de documentação sobre os testes de segurança, controle de vieses, grau de supervisão humana e medidas de transparência.
O projeto também incentiva a autorregulação e criação de regras adicionais de governança através de códigos de boas práticas e colaboração entre os agentes.
Direitos autorais
O PL de IA reforça a necessidade de conformidade com a Lei de Direitos Autorais (Lei nº 9.610/1998), e determina obrigações específicas para os agentes da IA que utilizam obras protegidas pela referida lei, tal como assegurar o direito de oposição (opt-out) do titular de direitos de autor e conexos em relação ao uso de suas obras no âmbito do sistema de IA.
Responsabilidade civil
O projeto ainda prevê a aplicação de dois regimes de responsabilidade civil distintos, que são: a responsabilidade civil decorrente de danos causados por sistemas de IA no âmbito das relações de consumo permanece sujeita às regras de responsabilidade previstas no Código de Defesa do Consumidor (Lei nº 8.078/1990); e a responsabilidade civil decorrente de danos causados por sistemas de IA explorados, empregados ou utilizados por agentes de IA que estejam fora do contexto de relações de consumo permanece sujeita às regras de responsabilidade previstas no Código Civil (Lei nº 10.406/2002).
Para mais informações sobre o tema, conheça a prática de Tecnologia do Mattos Filho.