O ChatGPT e os projetos associados a ele, como a IA, levantaram muitas preocupações, desde a fraude de credenciais até a perda de empregos. Um desses subestimados é o uso do malware ChatGPT usando Python e Powershell. Embora ainda esteja nos estágios básicos, há várias provas de conceitos que surgiram indicando que agentes de ameaças com pouca ou nenhuma habilidade descobriram como manipular o ChatGPT para produzir malware básico, mas viável.
Malware ChatGPT usando Python e Powershell para roubar arquivos
O relatório da Check Point descreve um tópico da dark web publicado em 29 de dezembro por um criminoso mais experiente instruindo aqueles com menos habilidade, bem como um tópico de uma semana antes por um usuário que alegou que seu script de malware ChatGPT foi o primeiro código que eles já tiveram. escrito. Outro tópico de véspera de Ano Novo descreve como usar o ChatGPT para criar mercados da dark web.
O usuário mais avançado do fórum afirmou que estava tentando solicitar ao ChatGPT que recriasse uma variedade de cepas e técnicas de malware conhecidas. Ele também afirmou que ele conseguiu que a IA traduzisse amostras de malware entre linguagens de programação. O método requer algum conhecimento básico de codificação, mas o hacker forneceu instruções detalhadas para aqueles que desejam replicar a técnica. Um segundo exemplo deste pôster mostra o ChatGPT gerando um pequeno código Java que baixa um cliente SSH e telnet e usa o Powershell para executá-lo em um sistema de destino, evitando a detecção. Esse script é aberto, permitindo que o malware seja baixado e instalado nos sistemas de destino.
Com a ajuda do ChatGPT, o usuário anterior do fórum, que estava experimentando seu primeiro malware Python, criou essencialmente uma ferramenta básica de ransomware. Membros mais experientes do fórum confirmaram que esse script criptografaria com sucesso uma lista especificada de arquivos ou diretórios. O script incluía informações necessárias para descriptografar os arquivos de destino conforme apresentados, mas a Check Point observa que ele pode ser modificado para remover isso. Apesar do fato de que a atividade anterior do usuário no fórum indica que ele não é um programador, ele é ativo e conhecido no submundo do crime como um intermediário para bancos de dados roubados e acesso a empresas comprometidas.
O terceiro caso não envolve malware, mas envolve ChatGPT no processo de venda e transferência de dados roubados. Esta amostra cria um mercado de fórum temporário que pode usar métodos de pagamento criptográficos para facilitar as transferências.
Aposte na Mega da Virada 2024!
Prepare-se para uma chance única de mudar sua vida. O prêmio histórico de R$ 600 milhões da Mega da Virada 2024 está esperando por você!
Além disso, conheça os bolões da Sorte Online, que são os mais premiados e oferecem as melhores chances de ganhar! Ao participar dos bolões, você se junta a centenas de apostadores e aumenta suas chances de faturar uma bolada.
Faça sua Aposta AgoraA ameaça de malware de IA mais imediata é que ela está aprimorando os recursos de agentes de ameaças não qualificados.
No momento, as ferramentas desenvolvidas pelo ChatGPT não representam nenhuma ameaça nova ou séria. No entanto, lembre-se de que o ChatGPT é uma versão inicial de um projeto que ainda está em desenvolvimento e é apenas uma questão de tempo até que malwares mais sofisticados possam ser gerados automaticamente com pouco ou nenhum conhecimento de hackers.
Com a ajuda da IA, cibercriminosos experientes poderão eventualmente criar ou refinar ferramentas altamente personalizadas em períodos muito mais curtos, enquanto os inexperientes se beneficiarão muito. A capacidade do ChatGPT de gerar e-mails de phishing razoavelmente convincentes em outro idioma é um exemplo disso.
No entanto, a “batalha das IAs” continua sendo uma possibilidade distante, prejudicada por diversos fatores. Uma é que o ChatGPT frequentemente erra as coisas, mas sempre dá respostas como se tivesse certeza de que estão corretas; ainda requer um olho habilidoso para saber se o código gerado é funcional e adequado para a finalidade a que se destina. Outra razão é que esses modelos avançados e caros permanecem nas mãos de um pequeno número de pessoas que têm controle considerável sobre como são usados.
A ameaça mais imediata é o impulso que isso proporcionará aos “script kiddies”, que têm pouco conhecimento de codificação, mas combinam sites como GitHub e StackExchange para colar códigos pré-fabricados. Isso pode ser usado de forma maliciosa.
source – www.analyticsinsight.net