Pesquisa aponta Inteligência Artificial Responsável como prioridade para 84% de líderes globais
Enquanto 84% de líderes globais acreditam que a Inteligência Artificial Responsável (IAR) deve ser uma das prioridades da alta gestão, apenas 25% destes têm programas maduros da tecnologia — é o que mostra um estudo elaborado pelo Boston Consulting Group em parceria com o MIT Sloan Management Review (MIT SMR).
O relatório é baseado em uma pesquisa global com mais de mil executivos de 22 setores e 96 países, líderes em organizações que faturam mais de US? 100 milhões anualmente. O documento conta, ainda, com análises e insights coletados em um painel internacional com mais de 25 especialistas em IA.
Ainda não tão popular na mídia e nos negócios, o termo “Inteligência Artificial Responsável” é definido pelo MIT SMR e BCG como “uma estrutura com princípios, políticas, ferramentas e processos para garantir que os sistemas de IA sejam desenvolvidos e operados a serviço do bem, para as pessoas e sociedade, enquanto ainda possibilitam um impacto de negócios transformador”.
O relatório, realizado para avaliar o grau em que as organizações abordam o IAR, mostra que quase um quarto dos entrevistados relatou que sua empresa sofreu com alguma falha de inteligência artificial — desde meros lapsos técnicos até questões de maior potencial, como vazamento de dados.
Apesar da clara necessidade de uma inteligência artificial responsável, menos de um quarto das organizações ouvidas pelo BCG contam com um programa implementado, que busque abordar os riscos da tecnologia e o impacto nas pessoas de forma proativa. “Estamos avançando na discussão, mas ainda é um tema pouco maduro nas organizações, especialmente no Brasil.
É importante que os líderes de tecnologia abordem IA não apenas com a lente de impacto no negócio, mas também considerando o reflexo da IA nas pessoas e na sociedade, sendo sensíveis aos vieses dos sistemas que levem a decisões tendenciosas e comportamentos prejudiciais. Líderes em tecnologia precisarão cada vez mais ter foco na responsabilidade corporativa, garantindo o uso responsável de IA”, afirma Alexandre Montoro, diretor executivo e sócio do BCG.
Segundo Elizabeth M. Renieris, pesquisadora do Instituto de Ética de Oxford em AI, editora convidada do MIT SMR e coautora do relatório, apesar de a pesquisa revelar uma lacuna importante entre a expectativa e a realidade, há também oportunidades para que as organizações ganhem destaque na aplicação de uma IA responsável.
“Ao adotar uma visão mais ampla de suas partes interessadas e ver a IAR como uma expressão de sua cultura e valores corporativos mais profundos, as organizações ficam mais bem equipadas para garantir que seus sistemas de IA promovam o bem-estar individual e social”, explica.
Iniciativas de IA Responsável são menos prioritárias
A adoção corporativa de inteligência artificial tem sido rápida e abrangente em organizações de todos os setores. O relatório de 2019 do MIT SMR e do BCG sobre IA e estratégia de negócios descobriu que 90% das empresas pesquisadas investiram na tecnologia. Já a adoção da IAR, por outro lado, foi limitada, com pouco mais da metade dos entrevistados da pesquisa de 2022 (52%) relatando que suas organizações têm um programa IAR em vigor.
Destes, a maioria (79%) relata que a implementação do programa é limitada em escala e escopo. Mais da metade dos entrevistados citou a falta de experiência e talento em IAR (54%), e a falta de treinamento ou conhecimento entre os membros da equipe (53%) como os principais desafios que limitam a capacidade de sua organização de implementar novas iniciativas.
A pesquisa mostra, ainda, que 16% dos entrevistados adotaram uma abordagem mais estratégica para a IAR, investindo o tempo e os recursos necessários para criar programas abrangentes de responsabilidade. Esses líderes têm características distintas em comparação com os 84% restantes da pesquisa, e são menos propensos a experimentar falhas de IA do que as demais organizações.
Fonte: TI Inside