MENU

HOME

Consecti

Consecti Consecti

Primeiro ciberataque por agentes de inteligência artificial mira 30 empresas e órgãos de governo

A Anthropic, criadora do chatbot Claude, revelou ter detectado e contido o que descreve como o primeiro ataque cibernético em larga escala executado predominantemente por agentes de inteligência artificial. Segundo relatório publicado pela empresa, o ataque inédito expõe um salto tecnológico que deve redefinir estratégias de defesa digital no mundo todo.

ia-globo

Segundo a companhia, em meados de setembro de 2025 sua equipe identificou uma atividade incomum que, após investigação, se mostrou uma campanha de espionagem altamente sofisticada. A Anthropic acusa um grupo “patrocinado pelo Estado chinês”, que conseguiu manipular o modelo Claude Code para tentar infiltrar cerca de 30 alvos globais, incluindo gigantes de tecnologia, instituições financeiras, indústrias químicas e órgãos governamentais. Em alguns casos, houve sucesso.

O que torna o ataque inédito, diz a empresa, é o grau de autonomia concedido à IA. “Os atacantes utilizaram as capacidades ‘agênticas’ da IA em um nível sem precedentes — não apenas como conselheira, mas para executar os ataques por conta própria”, afirma o relatório.

A operação explorou avanços recentes em modelos de IA, que hoje são capazes de seguir instruções complexas, tomar decisões, acionar ferramentas externas e até escrever código malicioso. Para contornar as salvaguardas do Claude, os invasores o “jailbrokearam” — burlando seus mecanismos de segurança — e o instruíram por meio de tarefas fragmentadas, apresentadas como ações legítimas de uma empresa de cibersegurança.

A partir daí, o Claude Code passou a mapear sistemas internos das vítimas, identificar bases de dados valiosas, redigir e testar códigos de exploração, coletar credenciais e classificar dados roubados. Também criou documentação detalhada das invasões, facilitando fases seguintes do ataque.

A Anthropic estima que entre 80% e 90% de todo o trabalho da campanha foi realizado autonomamente pela IA, com os operadores humanos intervindo apenas em poucos momentos críticos. Em seu pico, o sistema fez milhares de requisições por segundo — um ritmo impossível para equipes humanas.

Apesar da sofisticação, o Claude apresentou limitações, como “alucinar” credenciais inexistentes ou afirmar ter obtido informações que eram públicas, o que ainda impede ataques totalmente autônomos. Mas a empresa diz que a tendência é de rápido aperfeiçoamento.

Assim que a atividade suspeita foi detectada, a Anthropic abriu uma investigação de dez dias, bloqueou contas usadas pela operação, notificou organizações afetadas e cooperou com autoridades. A empresa afirma ter reforçado seus sistemas de detecção e criado novos classificadores para sinalizar uso malicioso de modelos avançados.

O caso marca uma “mudança fundamental” na segurança digital. Modelos agênticos permitem que grupos com poucos recursos executem ataques antes possíveis apenas para equipes especializadas, reduzindo drasticamente barreiras de entrada e ampliando a escala das operações.

A Anthropic defende que, apesar dos riscos, seguir desenvolvendo essas tecnologias é essencial — inclusive para defesa. A própria companhia utiliza o Claude para analisar grandes volumes de dados em investigações internas. Ela recomenda que equipes de segurança testem aplicações de IA em centros de operações, detecção de ameaças, avaliação de vulnerabilidades e resposta a incidentes.

“O episódio demonstra como atacantes estão adaptando suas táticas para explorar as capacidades mais avançadas dos modelos atuais”, diz o relatório. “Por isso, compartilhamos esse caso publicamente: para apoiar governos, empresas e a comunidade de pesquisa no fortalecimento de suas defesas.”

Fonte: Convergência Digital

Mais notícias