Especialistas afirmam que, embora haja a possibilidade de que chatbots inteligentes como o ChatGPT possam ser utilizados no futuro para gerar códigos maliciosos, o foco atual está na popularidade da ferramenta. Acredita-se que os fraudadores têm se aproveitado cada vez mais de sites e aplicativos falsos do ChatGPT para atrair vítimas incautas e roubar informações sensíveis.
Na quarta-feira, os pesquisadores da Meta – empresa controladora do Facebook – emitiram um alerta preocupante: grupos maliciosos como Ducktail e NodeStealer estão se passando por ChatGPT e outras ferramentas semelhantes para infectar pessoas com extensões de navegador maliciosas, anúncios e outros métodos em várias plataformas de mídia social. Tudo isso é para veicular anúncios não autorizados de contas comerciais comprometidas na internet.
Felizmente, a Meta detectou e interrompeu essas ameaças, incluindo famílias de malware não relatadas anteriormente. Ainda assim, a equipe de segurança da empresa notou uma rápida adaptação adversarial em resposta à sua detecção, o que significa que é mais importante do que nunca manter-se alerta para essas ameaças.
A Meta identificou cerca de dez famílias de malware atacando pessoas por meio do uso do ChatGPT e outras temáticas semelhantes. Como se isso não bastasse, os agentes de ameaça estão criando extensões de navegador maliciosas que afirmam oferecer ferramentas ChatGPT para enganar as pessoas a baixar malware. Essas extensões maliciosas são promovidas tanto em mídias sociais quanto em resultados de pesquisa patrocinados. Algumas das extensões ainda incluem o próprio ChatGPT junto ao malware para evitar suspeitas de lojas oficiais da web.
É importante tomar as devidas precauções quando se navega na web. Cuidado com extensões de navegador, anúncios e outras coisas que pareçam suspeitas.
A Meta anunciou que bloqueou mais de 1.000 URLs maliciosas relacionadas ao ChatGPT em suas plataformas, enquanto compartilhou essas URLs com parceiros do setor. Esse esforço foi necessário devido à operação Ducktail, que tem como alvo usuários do Facebook desde 2021. Essa operação falsifica o ChatGPT para roubar cookies do navegador, sequestrar sessões logadas no Facebook e acessar informações confidenciais das contas de suas vítimas, incluindo código de autenticação de dois fatores e dados de localização.
Em janeiro deste ano, pesquisadores da Meta descobriram o malware NodeStealer, que rouba cookies para invadir contas do Facebook, Gmail e Outlook. Rapidamente, a empresa conseguiu identificar o malware e tomar medidas para interromper sua ação, ajudando as possíveis vítimas a recuperar suas contas. Para isso, foram enviadas solicitações de remoção para registradores terceirizados, provedores de hospedagem e aplicativos utilizados pelos agentes de ameaças.
Desde 27 de fevereiro deste ano, os pesquisadores da Meta não observaram novas amostras de malware da família NodeStealer. Porém, a empresa continua monitorando quaisquer atividades futuras em potencial, incluindo a ameaça crescente da inteligência artificial generativa.
Especialistas em segurança da empresa BlackFog emitiram um alerta sobre a ameaça do ChatGPT, destacando seu potencial para produzir códigos maliciosos. A empresa está monitorando de perto como a inteligência artificial pode ser usada como isca em mídias sociais. Segundo o BlackFog, o ChatGPT pode ser usado para exfiltrar dados e criar sites de phishing, com a finalidade de roubar credenciais e instalar malware em dispositivos. Como resultado, medidas de segurança cibernética precisarão acompanhar o ritmo dessa tecnologia emergente. Abordagens tradicionais como defesa baseada em EDR e antivírus mostraram-se ineficazes contra essas variantes modernas de ransomware. Para proteger os dados, é necessário utilizar tecnologias mais recentes, para evitar a exfiltração de dados em primeiro lugar. Sem a possibilidade de exfiltrar as informações, os invasores não têm como extorquir as vítimas e não têm nada a ganhar. Além disso, a devida diligência dos usuários é fundamental para não cair em campanhas de spoofing.
Artigo escrito por: Alexandre Morelli