ABRIQ defende avanço do Marco Legal da IA para garantir inovação com segurança
O início dos trabalhos legislativos em um ano que será marcado por campanhas eleitorais aumenta a urgência do avanço da regulamentação da Inteligência Artificial (IA) no Brasil. Em tramitação no Congresso Nacional, a aprovação do Projeto de Lei nº 2.338/2023, conhecido como Marco Legal da IA, passa a ser fundamental para equilibrar inovação tecnológica, segurança jurídica e proteção dos direitos dos cidadãos, defende a Associação Brasileira de Infraestrutura da Qualidade (ABRIQ), entidade que reúne o setor da qualidade no país.
Aprovado pelo Senado em dezembro de 2024 e atualmente em discussão na Câmara dos Deputados, o PL propõe uma regulação baseada em risco, com foco em princípios como centralidade humana, não discriminação, transparência, supervisão humana e responsabilidade diferenciada conforme o nível de risco dos sistemas de IA. A proposta busca harmonização com marcos já existentes, como a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet, criando um ambiente mais previsível para empresas, governo e sociedade.
Na avaliação da ABRIQ, a ausência de regras claras amplia vulnerabilidades, especialmente em setores sensíveis como telecomunicações, saúde, finanças e processos eleitorais. O debate recente sobre o uso de IA nas eleições de 2026, por exemplo, evidencia como a falta de uma legislação específica transfere para órgãos reguladores o desafio de criar soluções pontuais, sem uma base legal robusta.
Para o vice-presidente de Telecomunicações da ABRIQ, Kim Rieffel, o país precisa avançar com responsabilidade. “A inteligência artificial já está incorporada a decisões que impactam crédito, saúde, telecomunicações e até processos eleitorais. Não estamos discutindo uma tecnologia do futuro, mas uma realidade presente. A regulação baseada em risco é essencial para proteger direitos sem sufocar a inovação”.
Segundo ele, a Infraestrutura da Qualidade tem papel estratégico nesse processo, ao oferecer mecanismos de avaliação da conformidade, certificação, ensaios e auditorias que ajudem a verificar se sistemas de IA atendem a requisitos técnicos, éticos e legais. “A regulamentação precisa caminhar junto com instrumentos de verificação. Normas técnicas e esquemas de certificação são ferramentas concretas para transformar princípios legais em práticas confiáveis”, destaca Kim Rieffel.
A entidade avalia ainda que iniciativas paralelas, como a criação de incentivos à infraestrutura digital e data centers, também precisam estar conectadas ao debate regulatório. “Não basta investir em tecnologia. É preciso investir em confiança, governança e qualidade. Sem isso, a inovação perde valor social”, reforça o vice-presidente.
A ABRIQ defende que este Projeto de Lei avance com diálogo entre Congresso, Governo, setor produtivo, academia e sociedade civil, garantindo um marco legal que proteja os cidadãos, dê segurança às empresas e estimule o desenvolvimento ético da inteligência artificial no país.
Outros países
O cenário internacional mostra que o Brasil não está sozinho nesse desafio. A União Europeia já colocou em vigor o EU AI Act, também baseado em níveis de risco. A China adota regras focadas em tecnologias específicas, como IA generativa e reconhecimento facial. Os Estados Unidos seguem uma abordagem mais fragmentada, com ordens executivas e regulações estaduais. Para a ABRIQ, esse contexto reforça a importância de o Brasil construir um modelo próprio, alinhado às melhores práticas globais, mas adequado à sua realidade social e econômica.
“Estamos diante de uma tecnologia que pode gerar ganhos enormes para a economia e para a qualidade de vida, mas que também traz riscos reais. O papel da regulação é exatamente esse: potencializar os benefícios e reduzir os riscos. A Infraestrutura da Qualidade é parte essencial desse caminho”, conclui Kim Rieffel.
Fonte: TI Inside