Comissão do Senado aprova anteprojeto do Marco Legal da Inteligência Artificial
Aprovada em 6 de dezembro pela Comissão de Juristas de Inteligência Artificial do Senado Federal, nova versão do Marco Legal será analisada e votada pelo plenário
Assuntos
A Comissão de Juristas de Inteligência Artificial, instituída pelo Senado Federal, aprovou o texto substitutivo para o Marco Legal da Inteligência Artificial em 6 de dezembro de 2022. O Marco Legal da IA define princípios, direitos das pessoas afetadas por sistemas de IA, classificação de risco e medidas de governança e transparência que devem ser observadas pelas organizações envolvidas, em quaisquer etapas do ciclo de vida do sistema.
Além disso, o Marco Legal da IA estabelece as sanções em caso de descumprimento de suas disposições e incumbe o Poder Executivo de designar uma autoridade competente para implementar e fiscalizar o Marco Legal da IA. Se aprovado, o Marco Legal da IA está previsto para entrar em vigor em 1 ano após sua publicação.
Objetivos da comissão
A Comissão foi instalada em 30 de março de 2022, com o objetivo de subsidiar a elaboração de um anteprojeto que estabeleça princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e aplicação da IA no Brasil. Presidida pelo ministro Ricardo Villas Bôas Cueva, a Comissão encerrou seu trabalho em 7 de dezembro de 2022.
Entre os Projetos de Lei (PLs) analisados pela Comissão, estão o PL 5.051/2019, do senador Styvenson Valentim (Podemos-RN), que define princípios para uso da inteligência artificial no Brasil; o PL 872/2021, do senador Veneziano Vital do Rêgo (MDB-PB), que disciplina a utilização desse tipo de recurso no país, e o PL 21/2020, do deputado federal Eduardo Bismarck (PDT-CE) e aprovado pela Câmara dos Deputados, que regulamenta a aplicação da inteligência artificial.
Abaixo, veja um resumo dos principais pontos do Marco Legal da IA:
Definições de agentes de IA e respectiva responsabilização
Durante as audiências públicas que anteciparam a apresentação do anteprojeto pela Comissão, os especialistas apontaram os riscos em delimitar a IA e adotar definições específicas em razão da dinamicidade da tecnologia e suas aplicações. No entanto, o Marco Legal da IA estabeleceu algumas definições, incluindo:
- Fornecedor de sistemas de IA: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolve o sistema de IA diretamente ou por encomenda com vistas à sua colocação no mercado ou sua aplicação em serviço por ela fornecida, sob seu próprio nome ou marca, a título oneroso ou gratuito;
- Operador do sistema de IA: pessoa natural ou jurídica, de natureza pública ou privada, que emprega ou utiliza em seu nome ou benefício sistema de IA, salvo se o sistema for utilizado em caráter pessoal e não profissional. Em conjunto, operador e fornecedor são considerados “agentes de IA”.
No tocante à responsabilização dos agentes mencionados, o Marco Legal da IA prevê que o fornecedor ou operador que causar dano patrimonial, moral, individual ou coletivo é obrigado a repará-lo integralmente, independente do grau de autonomia do sistema. O Marco Legal da IA também estabelece as situações nas quais os agentes de IA não serão responsabilizados pelos danos causados.
Princípios
Após intensas discussões entre diferentes setores a respeito da abordagem principiológica do Marco Legal da IA, uma série de princípios para uso e desenvolvimento de sistemas de IA no Brasil foram consolidados pela Comissão.
Em especial, destacam-se:
- A participação humana no ciclo da IA e supervisão humana efetiva;
- Não discriminação;
- Inteligibilidade, transparência, explicabilidade e auditabilidade;
- Confiabilidade e robustez dos sistemas de IA;
- Rastreabilidade das decisões durante ciclo de vida dos sistemas de IA e atribuição de responsabilidades a uma pessoa natural ou jurídica;
- Prestação de contas, responsabilização e reparação integral de danos;
- Precaução, prevenção e mitigação de riscos sistêmicos.
Rol de direitos às pessoas afetadas pelos sistemas de IA
Diferente dos projetos de lei que já tramitavam no Senado Federal, o Marco Legal da IA inovou ao incluir um rol com direitos das pessoas afetadas por sistemas de IA. Os principais direitos assegurados pelo Marco Legal da IA são:
- Direito à informação prévia quanto às interações com sistemas de IA;
- Direito de explicação, em até 15 dias, da decisão, recomendação ou previsão tomada pelo sistema de IA, por meio de procedimento gratuito e facilitado;
- Direito de contestar decisões tomadas por IA;
- Direito à não discriminação e à correção de vieses discriminatórios;
- Direito de participação humana em determinadas decisões;
- Direito à privacidade e proteção de dados.
Tais direitos são oponíveis diante às autoridades judiciais e administrativas competentes e aplicam-se de forma independente da vedação de risco do sistema prevista no Marco Legal da IA, bastando que a pessoa seja afetada pelo risco do sistema de IA.
Classificação de risco dos sistemas de IA
Semelhante ao futuro marco regulatório de IA da União Europeia (EU AI Act), a nova versão do Marco Legal da IA estabelece uma classificação de risco para sistemas de IA. Os riscos apresentados pelos sistemas de IA são divididos em duas categorias, sendo elas:
- Risco excessivo: são os sistemas de IA que não podem operar no Brasil. Tais sistemas incluem:
- Técnicas subliminares que tenham por objetivo induzir a pessoa natural a se comportar de forma prejudicial a sua saúde e segurança;
- Sistemas que explorem vulnerabilidades de grupos específicos de pessoas naturais (associados a idade e deficiências específicas) de forma a induzirem a se comportar de forma prejudicial a sua saúde e segurança; e sistemas empregados pelo Poder Público para avaliar, classificar e ranquear as pessoas naturais com base em comportamento social e atributos da personalidade por meio de pontuação universal (social scoring).
- Alto risco: são sistemas de IA que envolvem a operação no âmbito de determinadas aplicações, incluindo:
- Gestão e funcionamento de infraestruturas críticas;
- Avaliação profissional;
- Sistemas de avaliação e classificação de crédito;
- Veículos autônomos (quando seu uso puder gerar risco à integridade das pessoas físicas);
- Áreas da saúde destinados a auxiliar procedimentos médicos e diagnósticos;
- Sistemas biométricos de identificação, entre outros. Em se tratando de sistema de alto risco, o fornecedor ou operador respondem objetivamente pelos danos causados, na medida de sua participação no dano. Quando não se tratar de sistema de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.
Previsão de medidas de governança aplicáveis às empresas que forneçam ou operem sistemas de IA
O Marco Legal da IA prevê que os agentes de IA devem estabelecer estruturas de governança e processos internos, aptos a garantir a segurança dos sistemas e atendimento dos direitos das pessoas afetadas.
As medidas de governança devem incluir, no mínimo, medidas de transparência quanto ao emprego de sistemas de IA na interação com pessoas naturais, transparência quanto às medidas de governança adotadas no desenvolvimento e emprego do sistema de IA pela organização, medidas de gestão de dados adequadas para mitigar e prevenir potenciais vieses discriminatórios, medidas de privacidade desde a concepção e por padrão e adoção de parâmetros adequados de separação e organização dos dados para treinamento, teste e validação dos resultados.
Autoridade competente e Sanções
O Marco Legal da IA define que o Poder Executivo irá designar uma autoridade competente para implementar e fiscalizar a lei. Em relação às sanções previstas, destacam-se a aplicação de multa simples limitada a R$ 50 milhões por infração sendo, no caso de pessoa jurídica de direito privado, de até 2% de seu faturamento, de seu grupo ou conglomerado no Brasil no seu último exercício, excluídos os tributos, além da suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema e proibição do tratamento de bases de dados.
Para maiores informações sobre o tema, conheça a prática de Tecnologia do Mattos Filho.