Novo PL da inteligência artificial mantém ANPD no comando
O projeto de lei 2338/23, que trata do uso da inteligência artificial no Brasil, ganhou um novo texto nesta quinta, 28/11. O senador Eduardo Gomes (PL-TO), diz que o relatório se afasta do modelo adotado na Europa, ficou “ainda mais pró-inovação” e com “uma lógica de regulação mais ex-post e muito menos ex-ante”.
Nesta quinta, o texto foi formalmente apresentado à Comissão Temporária Interna sobre Inteligência Artificial no Brasil do Senado Federal. Tratado como complementação de voto, não tem mais prazo de vista. Mas serão aceitas emendas até 2/12. A ideia é votar na CTIA em 3/12. “Nossa conclusão foi que precisamos fazer de forma equilibrada e sem engessar a inovação. E chegamos ao equilíbrio mais adequado à nossa realidade”, afirmou Gomes.
O primeiro destaque do relator é no que entende como alargamento das hipóteses de exceção ao escopo de aplicação da lei, de modo a não incidir sobre qualquer tipo de uso por pessoa natural sem fins econômicos, incluindo o uso de sistemas de propósito geral e generativa, sobre atividades de testagem e desenvolvimento de forma ampla e geral, “de modo a reforçar que o objeto primariamente regulado é o uso e aplicação dos sistemas de IA”.
O relator diz que o texto “distancia-se da abordagem europeia precaucionária que tem sido criticada pelo seu impacto regulatório desproporcional e estático”.
Segundo Gomes, o novo relatório tem “uma lógica de regulação mais ex-post e muito menos ex-ante, na medida em que a classificação de alto risco deverá ser regulamentado a nível infralegal de forma dinâmica e adaptável e com deveres robustos de accountability por parte dos órgãos reguladores de forma a reduzir a discricionariedade e aumentar a segurança jurídica para investimentos e o desenvolvimento tecnológico”.
Com o foco em regras para sistemas de IA que chegam ao mercado, o projeto de lei considera boa prática – e não mais uma obrigação – que o agente desenvolvedor faça uma avaliação de risco.
Há vedações para sistemas considerados de risco excessivo, entendidos como aqueles que instigam danos à saúde ou envolvem perfilamento criminal, ranqueamento social pelo poder público, armas autônomas, exploração sexual de crianças e identificação biométrica à distância.
Além disso, o PL aponta 13 aplicações consideradas de alto risco, sujeitas a regras específicas, especialmente análise de impacto algorítmico.
São elas segurança de infraestruturas críticas, seleção e progressão acadêmica, recrutamento, elegibilidade de serviços, priorização de acesso, administração da Justiça, veículos autônomos, diagnósticos médicos, big data criminal, biometria emocional, imigração e curadoria de conteúdos online.
Como diz o PL, “a avaliação de impacto algorítmico de sistemas de IA é obrigação do desenvolvedor ou aplicador que introduzir ou colocar sistema de IA em circulação no mercado sempre que o sistema ou o seu uso for de alto risco, considerando o papel e participação do agente na cadeia”.
Fonte: Convergência Digital