O Google divulgou informações limitadas sobre os atacantes e o alvo, mas John Hultquist, analista-chefe da divisão de inteligência de ameaças da gigante da tecnologia, afirmou que isso representa um momento sobre o qual especialistas em segurança cibernética vêm alertando há anos: hackers maliciosos se armando com IA para potencializar sua capacidade de invadir os computadores do mundo.
“Já chegou”, disse Hultquist. “A era da vulnerabilidade e da exploração impulsionadas pela IA já começou.”
Isso ocorre em um momento de grandes avanços na capacidade da IA de encontrar vulnerabilidades, incluindo o modelo Mythos, anunciado há um mês pela Anthropic . Entre aqueles que tentam reforçar suas defesas está a Casa Branca do presidente Donald Trump , que mudou sua abordagem em relação à forma como planeja avaliar os modelos de IA mais poderosos antes de seu lançamento público.
Após cumprir a promessa de campanha de revogar as restrições impostas pelo presidente democrata Joe Biden à tecnologia de IA em rápido desenvolvimento, o governo republicano e seus aliados agora enviam sinais contraditórios sobre a possibilidade de o governo desempenhar um papel maior na supervisão da inteligência artificial.
“Algumas pessoas não querem que haja uma resposta regulatória a isso, enquanto outras querem”, disse Dean Ball, pesquisador sênior da Foundation for American Innovation, que anteriormente foi conselheiro de política tecnológica da Casa Branca e um dos principais autores do roteiro de política de IA de Trump no ano passado.
“Não gosto de regulamentação”, disse Ball. “Preferiria que as coisas não fossem regulamentadas. Mas acho que, neste caso, precisamos de regulamentação.”
O Google afirma ter encontrado evidências de que a IA está auxiliando em ataques cibernéticos.
O Google afirmou ter observado um grupo de “agentes de ameaças” proeminentes planejando uma grande operação que se baseava em uma falha de segurança que haviam encontrado. A vulnerabilidade permitia que eles burlassem a autenticação de dois fatores para acessar uma ferramenta popular de administração de sistemas online, cujo nome o Google se recusou a divulgar.
A empresa classificou a vulnerabilidade como um exploit de dia zero, um ciberataque que se aproveita de uma vulnerabilidade de segurança até então desconhecida. “Dia zero” refere-se ao fato de que os engenheiros de segurança não tiveram nenhum dia para desenvolver uma correção para a vulnerabilidade.
O Google afirmou ter notificado a empresa afetada e as autoridades policiais, conseguindo interromper a operação antes que causasse danos. No entanto, ao rastrear os passos dos hackers, encontrou evidências de que eles haviam usado um modelo de linguagem de IA complexo — a mesma tecnologia que alimenta chatbots populares — para descobrir a vulnerabilidade.
O Google não revelou qual modelo de IA foi usado no ataque cibernético, apenas que provavelmente não foi o Gemini, do próprio Google, nem o Claude Mythos, da Anthropic. O Google também não revelou qual grupo suspeita de ser o autor do ataque, mas afirmou não haver evidências de que esteja ligado a um governo adversário, embora a empresa tenha mencionado que grupos ligados à China e à Coreia do Norte têm explorado técnicas semelhantes.
Hultquist afirmou que, em comparação com espiões governamentais que normalmente trabalham de forma lenta e discreta, os hackers criminosos são alguns dos que mais têm a ganhar com a “tremenda capacidade de velocidade” da IA na detecção e exploração de falhas de segurança.
“Há uma corrida entre você e eles para impedi-los antes que consigam obter os dados necessários para extorquir você ou lançar um ataque de ransomware”, disse ele em entrevista. “A IA será uma grande vantagem, pois eles podem agir muito mais rapidamente.”
O mito da antropocentrismo gerou pânico e pedidos de regulamentação.
O Departamento de Comércio de Trump anunciou na semana passada a assinatura de novos acordos com o Google, a Microsoft e a xAI de Elon Musk para avaliar seus modelos de IA mais poderosos antes do lançamento público, dando continuidade a acordos anteriores firmados pelo governo Biden com a Anthropic e a OpenAI, criadora do ChatGPT . No entanto, o anúncio posteriormente desapareceu do site do Departamento de Comércio.
Este foi o exemplo mais recente de sinais confusos vindos do governo Trump no mês desde que a Anthropic anunciou um novo modelo chamado Mythos, que, segundo a empresa, era tão “incrivelmente capaz” em trabalhos de hacking e segurança cibernética que só poderia ser liberado para um pequeno grupo de organizações confiáveis.
A Anthropologie criou uma iniciativa chamada Projeto Glasswing, reunindo gigantes da tecnologia como Amazon, Apple, Google e Microsoft, juntamente com outras empresas como o JPMorgan Chase, na esperança de proteger o software crítico mundial das graves consequências que o novo modelo poderia representar para a segurança pública, a segurança nacional e a economia. No entanto, seu relacionamento com o governo dos EUA foi complicado por uma batalha pública e judicial com o Pentágono e o próprio Trump sobre o uso militar de sua tecnologia de IA.
Sua principal concorrente, a OpenAI, lançou posteriormente um modelo semelhante. A empresa anunciou na sexta-feira o lançamento de uma versão especializada em cibersegurança do ChatGPT, que estará disponível apenas para “profissionais de segurança responsáveis pela proteção de infraestruturas críticas”, auxiliando-os na identificação e correção de vulnerabilidades em seus códigos.
Ball disse estar otimista de que, a longo prazo, as ferramentas de IA, cada vez mais eficientes em programação, nos tornarão mais seguros contra os ciberataques rotineiros que afetam hospitais, escolas e outras organizações. Entretanto, ele afirmou que, enquanto isso, existem “trilhões de linhas de código de software” que sustentam os sistemas computacionais do mundo e que correm risco se as ferramentas de IA forem usadas indiscriminadamente para explorar todas as suas vulnerabilidades.
Poderia levar anos para reforçar a segurança de todo esse software — um processo que Ball acredita que seria facilitado pela coordenação do governo dos EUA.
Entretanto, Ball prevê um “período de transição” em que os riscos de segurança cibernética aumentarão significativamente e “o mundo poderá, de fato, se tornar mais perigoso”.
