"Grokking": Chatbot de IA do X, antigo Twitter é burlado para disseminar golpes de phishing em massa
![]() |
| imagem gerada por IA |
Uma nova e sofisticada técnica de ataque cibernético está transformando um chatbot de inteligência artificial (IA) da rede social X (antigo Twitter) em um canal de disseminação de golpes de phishing. A prática, nomeada de "Grokking", utiliza a IA da plataforma para burlar mecanismos de segurança e ampliar o alcance de links maliciosos, alertou a empresa de segurança digital ESET.
O golpe, que combina engenharia social e inteligência artificial generativa (GenAI), representa um perigo significativo, com potencial de atingir milhões de usuários e resultar em furto de dados e roubo de identidade.
O ataque explora uma vulnerabilidade na interação entre o sistema de publicidade da X e o chatbot de IA, o Grok. A ESET detalha que os criminosos utilizam a seguinte sequência para manipular o robô:
- Burlar a Regra: Os golpistas publicam vídeos atraentes na plataforma, mas, em vez de incluir o link malicioso diretamente no post (o que é proibido em posts patrocinados), eles o escondem em um campo técnico do vídeo chamado "from".
- Manipulação do Chatbot: Em seguida, os criminosos fazem uma pergunta ao Grok sobre a origem do vídeo.
- Amplificação da Fraude: O chatbot, ao processar a mensagem e buscar a informação solicitada, lê o campo "from", identifica o link malicioso e o republica automaticamente como parte de sua resposta.
Dessa forma, o Grok, que é uma conta oficial e verificada, confere uma camada de credibilidade ao link fraudulento, amplificando sua reputação digital e seu alcance.
"A IA intensifica a engenharia social de duas formas: cria campanhas de phishing convincentes com áudios e vídeos falsos e agora, com essa técnica do chatbot, abre uma nova dimensão para ações criminosas", explica Camilo Gutiérrez Amaya, chefe do laboratório de pesquisa da ESET na América Latina.
Amaya ressalta que essa técnica não se limita à rede social X. "Qualquer ferramenta de IA integrada a plataformas confiáveis está vulnerável a esse tipo de manipulação, mostrando o quanto criminosos buscam criar novas formas de driblar mecanismos de segurança e os riscos de confiar cegamente nos resultados da IA", afirma o especialista.
O uso de IA para fins maliciosos tem crescido exponencialmente. Pesquisas da Gartner indicam que 32% das empresas sofreram ataques envolvendo IA generativa no último ano. A ESET destaca que o "Grokking" e ataques similares trazem riscos graves:
Risco | Impacto |
Transformação da IA | O chatbot confiável se torna um ator malicioso, ampliando links de phishing e malwares. |
Alcance Massivo | Potencial de milhões de visualizações em vídeos pagos, disseminando fraudes rapidamente. |
Fortalecimento da Reputação | A associação com o chatbot oficial fortalece os links maliciosos em ferramentas de busca e reputação digital. |
Consequências Finais | Links levam a formulários para roubo de dados, invasão de contas e furto de identidade. |
Além disso, criminosos podem esconder mensagens maliciosas em textos invisíveis ou caracteres especiais, tornando qualquer GenAI suscetível ao uso indevido para propagar conteúdos perigosos.
Diante do novo desafio imposto pela manipulação de IAs, a ESET orienta os usuários a adotarem uma postura de cautela e desconfiança:
- Verifique a URL: Antes de clicar em qualquer link, especialmente aqueles enviados por bots ou contas automatizadas, passe o mouse sobre ele para conferir a URL de destino e evitar sites maliciosos.
- Postura Crítica: Não aceite respostas prontas de inteligências artificiais como certas. Questione sempre, especialmente quando houver contradições ou incoerências.
- Segurança Básica: Utilize senhas fortes e únicas, gerenciadas por programas específicos, e ative a autenticação multifator em todas as suas contas.
- Atualização e Proteção: Mantenha softwares e sistemas atualizados para corrigir vulnerabilidades e invista em soluções de segurança digital confiáveis que possam bloquear malwares e tentativas de phishing.

Comentários
Postar um comentário