A IA generativa já está presente em praticamente todos os setores, gostemos ou não, e a segurança cibernética não é exceção. A possibilidade de desenvolvimento de malware vertiginoso por IA e ataques autônomos deve alvoroçar qualquer gestor de sistema, mesmo neste estágio inicial. Wraithwatch é um novo equipamento de segurança que visa combater queimação com queimação, implantando boa IA para combater os maus.
A imagem de agentes de IA justos lutando contra os malvados no ciberespaço já é bastante romantizada, portanto vamos deixar simples desde o início que não se trata de um combate corpo a corpo no estilo Matrix. Trata-se de automação de software que permite atores mal-intencionados da mesma forma que permite a todos nós.
Funcionários da SpaceX e da Anduril até poucos meses detrás, Nik Seetharaman, Grace Clemente e Carlos Más testemunharam em primeira mão a tempestade de ameaças a que toda empresa com um tanto valioso a esconder (porquê aeroespacial, resguardo, finanças) está sujeita a qualquer hora.
“Isso vem acontecendo há mais de 30 anos e os LLMs só vão piorar a situação”, disse Seetharaman. “Não há diálogo suficiente sobre as implicações da IA generativa no lado ofensivo do cenário.”
Uma versão simples do protótipo de ameaço é uma variação de um processo normal de desenvolvimento de software. Um desenvolvedor trabalhando em um projeto generalidade pode fazer uma segmento do código pessoalmente e depois expressar a um copiloto de IA para usar esse código porquê guia para fazer uma função semelhante em cinco outras linguagens. E se não funcionar, o sistema pode iterar até funcionar, ou até mesmo fabricar variantes para ver se alguma tem melhor desempenho ou é auditada mais facilmente. Útil, mas não um milagre. Alguém ainda é responsável por esse código.
Mas pense em um desenvolvedor de malware. Eles podem usar o mesmo processo para fabricar várias versões de um software malicioso em poucos minutos, protegendo-os dos métodos de detecção “frágeis” de nível superficial que procuram tamanhos de pacotes, bibliotecas comuns e outros sinais reveladores de um malware. ou seu fundador.
“É trivial para uma potência estrangeira mostrar um worm para um LLM e expressar ‘ei, transforme-se em milénio versões’ e depois lançar todas as 1.000 de uma vez. Em nossos testes, existem modelos de código sincero sem increpação que ficam felizes em pegar seu malware e transformá-lo na direção que você desejar”, explicou Seetharaman. “Os bandidos estão por aí e não se importam com o alinhamento – você mesmo tem que forçar os LLMs a explorar o lado preto e mapeá-los para saber porquê você realmente se defenderá se isso sobrevir.”
Uma indústria reativa
A plataforma que a Wraithwatch está a edificar, e espera estar operacional comercialmente no próximo ano, tem mais em generalidade com os jogos de guerra do que com as operações tradicionais de cibersegurança, que tendem a ser “fundamentalmente reativas” às ameaças que outros detectaram, disseram. A velocidade e a variedade dos ataques poderão em breve sobrecarregar as políticas de resposta de cibersegurança, em grande segmento manuais e orientadas por humanos, que a maioria das empresas utiliza.
Uma vez que a empresa escreve em uma postagem no blog:
Novas vulnerabilidades e técnicas de ataque — que ocorrem semanalmente — são difíceis de compreender e mitigar, exigindo uma estudo aprofundada para compreender a mecânica de ataque subjacente e transcrever manualmente essa compreensão em estratégias defensivas apropriadas.
“Segmento do repto para as equipes cibernéticas é ajustar de manhã e aprender sobre o dia zero [the name given to security vulnerabilities where the vendor has no advance notice to fix them] – mas no momento em que lemos sobre isso, já existem blogs sobre a novidade variação para a qual sofreu mutação”, disse Clemente. “E se você está na SpaceX, na Anduril ou no governo dos EUA, você está recebendo uma novidade versão personalizada feita principalmente para você. Não podemos esperar até que alguém seja atingido.”
Embora esses ataques personalizados sejam em grande segmento produzidos pelo varão, assim porquê as defesas contra eles, já vimos o início de ameaças cibernéticas generativas em coisas porquê Verme GPT. Essa pode ter sido rudimentar, mas é uma questão de quando, e não se, modelos melhorados serão aplicados no problema.
Más observou que os atuais LLMs têm limitações nas suas capacidades e alinhamento. Mas os pesquisadores de segurança já demonstraram porquê as principais APIs de geração de código, porquê as OpenAI, podem ser enganadas para ajudar um ator mal-intencionado, muito porquê os modelos abertos mencionados supra que podem ser executados sem restrições de alinhamento (evitando “Desculpe, não posso fabricar malware ”-tipo respostas).
“Se você principiar a ser criativo na forma porquê usa uma API, poderá obter uma resposta que talvez não esperasse”, disse Más. Mas é mais do que unicamente codificação. “Uma das maneiras pelas quais as agências detectam ou suspeitam quem está por trás de um ataque é ter assinaturas: os ataques que usam, os binários que usam… imagine um mundo onde você pode fazer com que um LLM gere assinaturas porquê essa. Você clica em um bot e tem um APT totalmente novo [advanced persistent threat, e.g. a state-sponsored hacking outfit].”
É até provável, disse Seetharaman, que as novas IAs do tipo agente treinadas para interagir com múltiplas plataformas de software e APIs porquê se fossem usuários humanos, possam ser criadas para agir porquê ameaças semiautônomas para testilhar persistentemente e em coordenação. Se a sua equipe de segurança cibernética estiver preparada para combater esse nível de ataque permanente, é provável que seja unicamente uma questão de tempo até que haja uma violação.
Jogos de guerra
Portanto, qual é a solução? Basicamente, uma plataforma de segurança cibernética que aproveita a IA para conciliar sua detecção e contramedidas ao que uma IA ofensiva provavelmente lançará sobre ela.
“Fomos muito deliberados sobre ser uma empresa de segurança que faz IA, e não uma empresa de IA que faz segurança. Já estivemos do outro lado do teclado e vimos até os últimos dias [at their respective companies] o tipo de ataques que eles estavam lançando contra nós. Sabemos até onde eles irão”, disse Clemente.

A partir da esquerda, os cofundadores da Wraithwatch Carlos Más, Nik Seetharaman e Grace Clemente. Créditos da imagem: Observatório de Espectros
E embora uma empresa porquê a Meta ou a SpaceX possa ter especialistas em segurança de sobranceiro nível no sítio, nem toda empresa pode formar uma equipe porquê essa (pense em um subcontratado de 10 pessoas para uma empresa aeroespacial principal) e, de qualquer forma, as ferramentas que eles são trabalhar pode não estar à profundeza da tarefa. Todo o sistema de denúncia, resposta e divulgação pode ser desafiado por agentes mal-intencionados capacitados pelos LLMs.
“Vimos todas as ferramentas de segurança cibernética do planeta e todas elas carecem de alguma forma. Queremos servir porquê uma estrato de comando e controle sobre essas ferramentas, amarrar um fio entre elas e transformar o que precisa ser transformado”, disse Seetharaman.
Ao usar os mesmos métodos que os invasores usariam em um envolvente de sandbox, o Wraithwatch pode caracterizar e prever os tipos de variações e ataques que o malware infundido com LLM poderia implantar, ou pelo menos é o que eles esperam. A capacidade dos modelos de IA de detectar sinais no rumor é potencialmente útil na geração de camadas de percepção e autonomia que podem detectar e possivelmente até responder a ameaças sem mediação humana – para não expressar que é tudo automatizado, mas o sistema poderia se preparar para bloquear um centenas de variantes prováveis de um novo ataque, por exemplo, tão rapidamente quanto seus administradores desejam executar patches para o original.
“A visão é que existe um mundo onde quando você acorda se perguntando se já foi violado, mas o Wraithwatch já está simulando esses ataques aos milhares e dizendo cá estão as mudanças que você precisa fazere automatizando essas mudanças tanto quanto provável”, disse Clemente.
Embora a pequena equipe tenha “vários milhares de linhas de código” no projeto, ainda é o prelúdios. Segmento do argumento, no entanto, é que, por mais evidente que seja que atores mal-intencionados estejam explorando esta tecnologia, as grandes corporações e os Estados-nação provavelmente também o estarão – ou, pelo menos, é saudável assumir isso, em vez de o oposto. Uma startup pequena e expedito, composta por veteranos de empresas sob séria ameaço, armada com uma rima de quantia de capital de risco, poderia muito muito ultrapassar a concorrência, estando livre da habitual bagagem corporativa.
A rodada inicial de US$ 8 milhões foi liderada pelo Founders Fund, com a participação da XYZ Capital e Human Capital. O objetivo é colocá-lo para funcionar o mais rápido provável, pois neste momento é justo considerá-lo uma corrida. “Uma vez que viemos de empresas com cronogramas agressivos, o objetivo é ter um MVP resiliente com a maioria dos recursos implantados para nossos parceiros de design no primeiro trimestre do próximo ano”, com um resultado mercantil mais largo chegando até o final de 2024, disse Seetharaman.
Pode parecer um pouco exagerado falar sobre agentes de IA sitiando segredos dos EUA em uma guerra secreta no ciberespaço, e ainda estamos muito longe dessa sinopse específica de suspense de aeroporto. Mas um grama de preparação vale muita tratamento, principalmente quando as coisas são tão imprevisíveis e rápidas porquê no mundo da IA. Esperemos que os problemas sobre os quais Wraithwatch e outros alertam ainda demorem pelo menos alguns anos – mas, entretanto, está simples que os investidores pensam que aqueles que têm segredos a proteger irão querer tomar medidas preventivas.