Lei de IA no Brasil tem que deixar autarquias regulando cada setor
A legislação acerca da inteligência artificial deveria ser principiológica, cabendo o protagonismo de estabelecer as regras setoriais aos órgãos reguladores — como Banco Central para o mercado financeiro e a Anatel para telecomunicações. Essa visão foi definida por Dora Kaufman, professora do Programa Tecnologias da Inteligência e Design Digital na PUC-SP, ao participar de durante o evento Deloitte GenAI Summit. “Esse é um caminho. Você cria algo geral, principiológico, e as agências setoriais vão ter a função da especificidade”, disse.
“Por que o Banco Central até agora não regulamentou a inteligência artificial no setor bancário? Porque é obrigação dele, é função, é missão do Banco Central. E o mercado financeiro já tá usando muito, assim como a Anatel para o mercado de comunicação. São agências para isso”, acrescentou, lembrando que tudo que é lançado para a sociedade — das vacinas a brinquedos — passa por processo regulatórios com agências específicas fazendo isso.
Um avanço seria, na visão da especialista em IA, identificar o que já existe de regulação setorial atual que poderia ser expandido para incorporar as questões relativas à inteligência artificial. Além disso, Dora Kaufman destacou o papel das agências reguladoras em manter as regras atualizadas, principalmente, em se tratando de formular uma lei que emula o comportamento humano.
“Em um ambiente democrático, você precisa acordar com a sociedade, com vários órgãos, a lei e tem de ter um tempo para isso e aí tem um descompasso [com o avanço da tecnologia]. Então, ela tem que ser flexível o suficiente para que você possa adaptá-la. Por isso que eu acho que responsabilidade de regulamentar e fiscalizar deveria ser setorial, porque com isso você tem muito mais flexibilidade”, explicou.
O projeto de lei mais avançado é o 2.338/2023 que tem relatoria do senador Eduardo Gomes (PSD/MG). Atualmente, a matéria está na Coordenação de Comissões Especiais, Temporárias e Parlamentares de Inquérito, que foi prorrogada até maio. Kaufman defendeu ainda que especialistas em inteligência artificial trabalhem com tempo junto aos reguladores para a elaboração da legislação.
“O [PL] 2.338 foi elaborado por uma comissão de 18 juristas e eu acho que ele deveria passar por um processo de ser reavaliado ou ser repensado por um comitê de especialistas em inteligência artificial, especialistas nos domínios de aplicação de IA”, explicou Kaufman, que também é pesquisadora dos impactos sociais da inteligência artificial, atuando no Instituto de Estudos Avançados (IEA) e do Centro de Pesquisa em Rede Digitais Atopos na Escola de Comunicação e Artes (ECA), ambos da Universidade de São Paulo (USP).
Participante do painel, Larissa Galimberti, sócia de tecnologia e licenciamento na Pinheiro Neto, lembrou que existem no Congresso quase 90 projetos relacionados à IA com as mais diversas possibilidades de regulação, sendo o PL 2.338 o mais robusto. “Quantificar o risco e colocar em regulação é difícil. E, quando olha para a primeira redação do PL 2.338, ele diferencia o que não pode ser usado e o que é alto risco”, assinalou a advogada, lembrando que a principal pergunta que aparece é o que se quer com a regulação e quem se quer proteger.
Um dos maiores riscos de aplicação de inteligência artificial está na IA generativa, que à época da elaboração do PL 2.338 não havia explodido. Na Europa, a grande revisão da legislação de IA foi visando a incluir a inteligência artificial generativa.
Por que legislar?
Para Kaufman, a necessidade de haver uma regulação para inteligência artificial está no fato de IA ser uma tecnologia de propósito geral, ou seja, que muda a lógica de funcionamento da economia e sociedade — assim como o carvão, a eletricidade e a computação o fizeram no passado. “Agora, tudo indica que a IA é a tecnologia de propósito geral do século 21, porque muda a lógica de funcionamento. Estamos migrando de máquinas programadas para máquinas probabilísticas; e essa é uma mudança fundamental”, explicou.
Nessa linha, Larissa Galimberti, acrescentou que, ao se ponderar se IA deve ou não ser regulada, a primeira questão que deve ser levada em consideração é a de privacidade e proteção de dados. “Porque, se o software vai se alimentar de base de dados, esta base terá dados pessoais”, justificou Galimberti.
Outro ponto levantado por ela diz respeito à propriedade intelectual, uma vez que as empresas que fazem ferramenta de inteligência artificial se alimentam de uma base pública de dados. Mas isso — alertou Galimberti — não quer dizer que a base de informações é de uso público, porque cabe a proteção de direito autoral e de marca, por exemplo. Um exemplo disso é o processo que o jornal New York Times abriu contra a OpenAI e a Microsoft por violação de direitos autorais.
Para além da legislação, as duas especialistas assinalaram que as companhias podem se adiantar ao tema, entendendo como fazem uso da inteligência artificial e quais riscos estão implicados. “Minha recomendação é que as empresas tratem do tema independentemente do que está acontecendo em regulamentação, criando diretrizes e fazendo diagnóstico do que já está usando e como está usando. Tem de olhar os pontos de atenção, quais são eventuais riscos; tudo iddo faz parte de diretrizes e de governança de IA”, disse Dora Kaufman, da PUC-SP.
Concordando com Kaufman, Larissa Galimberti, da Pinheiro Neto, aconselha as empresas a estabelecer qual vai ser o departamento terá o poder decisório ou se será um comitê. “A grande discussão no mundo jurídico é se vai ficar com privacidade ou compliance. Quem vai ficar responsável dentro das empresas? Eu não esperaria a lei, porque já temos os princípios éticos de não-driscriminação”, apontou. Além disso, ela destacou a importância de as corporações acompanharem o que está sendo discutido no Congresso e interagirem com os projetos de lei.
Fonte: Convergência Digital