Ciberataques Invisíveis

Ciberataques Invisíveis: Como Caracteres Ocultos Estão Explorando Vulnerabilidades em Assistentes de IA Os assistentes de inteligência artificial (IA) como ChatGPT, Copilot, e outros se tornaram alvos potenciais para um novo tipo de ataque cibernético envolvendo caracteres invisíveis. Esses caracteres, parte do padrão Unicode, são interpretáveis pela IA, mas invisíveis aos olhos humanos, criando uma brecha para comandos maliciosos sem que o usuário perceba. Como Funciona o Ataque Hackers utilizam esses caracteres invisíveis para explorar assistentes de IA através da técnica conhecida como “prompt injection” (injeção de comandos). O pesquisador Johann Rehberger demonstrou ataques ao Microsoft 365 Copilot, onde ele conseguiu enganar a IA para vasculhar e-mails e obter informações confidenciais, como senhas de uso único (OTP), ocultando esses dados em URLs aparentemente inofensivos. Esse ataque, denominado “ASCII Smuggling”, utiliza caracteres descontinuados do padrão Unicode que permanecem disponíveis e permitem a criação de um canal oculto de comunicação. Embora invisíveis aos humanos, esses caracteres são processados pela IA, tornando possível a inserção e extração de dados de forma indetectável. Vulnerabilidades e Medidas de Mitigação A Microsoft foi alertada sobre esses ataques e implementou algumas medidas para mitigar os riscos. No entanto, especialistas alertam que a mitigação atual não é suficiente, pois a proteção não foi implementada em um nível profundo dos modelos de IA, deixando novas aplicações vulneráveis. Além disso, esses ataques não se limitam a apenas explorar assistentes de IA. Pesquisadores, como Riley Goodside, mostraram que caracteres invisíveis também podem ser usados para enganar algoritmos que analisam currículos e artigos acadêmicos, algo que pode ser comparado às técnicas de texto branco usadas para manipular resultados de triagens automatizadas. Impactos e Exemplos Práticos Os ataques envolvendo caracteres invisíveis têm semelhanças com técnicas de injeção de SQL ou cross-site scripting (XSS), que continuam a ser exploradas mesmo após anos de aprimoramento nas medidas de segurança. Um exemplo prático envolveu a exploração de um bot automatizado no Twitter rodando em GPT-3, que foi manipulado a fornecer respostas inapropriadas por meio de comandos ocultos. Outra novidade na segurança de IA é a startup HiddenLayer, que surgiu com uma proposta específica para proteger modelos de IA de ataques maliciosos. A empresa pretende aplicar técnicas avançadas de segurança cibernética para salvaguardar modelos de IA contra a exploração de suas vulnerabilidades, como a injeção de prompt e outros ataques semelhantes. O Futuro da Segurança em IA À medida que a tecnologia avança e mais assistentes e ferramentas de IA são integrados ao cotidiano, novas vulnerabilidades podem surgir. Pesquisadores de segurança de IA sugerem que a abordagem atual de permitir muitos tokens, incluindo aqueles que podem ser mal utilizados, precisa ser revista. É fundamental estabelecer regras mais rígidas sobre os tipos de caracteres que os modelos podem processar. Especialistas recomendam que desenvolvedores fiquem atentos a essas ameaças e implementem bloqueios aos caracteres invisíveis para reduzir os riscos. A habilidade dos modelos de IA em processar informações que humanos não conseguem perceber continuará sendo um desafio para a segurança cibernética nos próximos anos. Fonte: Arstechnica Veja também: Big Techs e o futuro com IAs