falecom@consecti.org.br
(61) 3702-1740

Pesquisadores do Google mostram como inteligência artificial turbina fake news - Consecti

Pesquisadores do Google mostram como inteligência artificial turbina fake news - Consecti

Notícias
03 junho 2024

Pesquisadores do Google mostram como inteligência artificial turbina fake news

Uma nova análise de coautoria de pesquisadores do Google, da Duke University e de diversas organizações de mídia e verificação de fatos, aponta que a inteligência artificial já é a principal responsável pela criação e disseminação de fake news.

Segundo o estudo, as imagens geradas por IA ganharam rapidamente destaque, tornando-se quase tão populares como as formas mais tradicionais de manipulação.

A IA tem sido usada para gerar imagens falsas de pessoas reais, com efeitos preocupantes. Desde celebridades, como Taylor Swift nua, ao papa Francisco com casaco de moda, chegando ao Brasil, em imagens falsas que simularam empresários ajudando vítimas da chuva no Rio Grande do Sul, o problema está por toda a parte.

Segundo o levamento, “as imagens geradas por IA representavam uma proporção mínima das manipulações de conteúdo em geral até o início do ano passado”. Mas isso mudou.

A partir de 2023, com o lançamento de novas ferramentas de geração de imagens de IA por grandes players da tecnologia, incluindo OpenAI, Microsoft e o próprio Google, a desinformação gerada pela IA é “quase tão comum quanto as manipulações de texto e conteúdo geral”.

Os pesquisadores observam que o aumento na verificação de imagens de IA coincidiu com uma onda geral de entusiasmo pela IA, o que pode ter levado os sites a se concentrarem na tecnologia. O conjunto de dados mostra que a IA de verificação de factos abrandou nos últimos meses, com a manipulação tradicional de texto e imagens a registar um aumento.

O estudo também analisou outras formas de mídia e descobriu que os boatos em vídeo representam agora cerca de 60% de todas as alegações verificadas que incluem mídia.

Isso não significa que a desinformação gerada pela IA diminuiu, disse Sasha Luccioni, pesquisadora líder de ética em IA na plataforma de aprendizado de máquina Hugging Face.

“Pessoalmente, sinto que isso ocorre porque há tantos [exemplos de desinformação sobre IA] que é difícil acompanhar!” Luccioni disse por e-mail. “Eu mesmo os vejo regularmente, mesmo fora das redes sociais, em publicidade, por exemplo.”

Fonte: Convergência Digital