Política Últimas Notícias

OpenAI Revela que Hackers da China e Irã Utilizam ChatGPT em Ciberataques com Malware e Phishing

Um novo relatório da OpenAI revelou que mais de 20 ataques cibernéticos e de manipulação foram realizados utilizando sua inteligência artificial generativa, como o ChatGPT, para fins maliciosos.

Por Comando da Notícia

13/10/2024 às 14:36:08 - Atualizado há
Foto: Gazeta Brasil

Um novo relatório da OpenAI revelou que mais de 20 ataques cibernéticos e de manipulação foram realizados utilizando sua inteligência artificial generativa, como o ChatGPT, para fins maliciosos. O documento destaca a atuação de grupos relacionados a governos de países como China, Irã e Rússia, que têm explorado essas ferramentas para desenvolver malware, executar ataques de phishing e realizar campanhas de desinformação nas redes sociais.

Entre os grupos destacados, o SweetSpecter, baseado na China, se destacou por executar ataques de spear-phishing direcionados a governos asiáticos e à própria equipe da OpenAI. Em uma das ações, os atacantes enviaram e-mails disfarçados de problemas com serviços do ChatGPT, contendo arquivos ZIP com malware denominado "SugarGh0st RAT". Caso o arquivo fosse aberto, o malware assumia o controle do dispositivo, permitindo que os invasores executassem comandos e roubassem dados sem serem detectados.

Por outro lado, o grupo CyberAv3ngers, vinculado à Guarda Revolucionária Islâmica do Irã, utilizou o ChatGPT para investigar vulnerabilidades em sistemas industriais e hackear equipamentos de controle de água nos Estados Unidos e na Irlanda. Em novembro de 2023, o grupo conseguiu interromper temporariamente o fornecimento de água na cidade de Aliquippa, na Pensilvânia, e provocou um apagão de dois dias nos serviços hídricos do condado de Mayo, na Irlanda. As investigações revelaram que os atacantes utilizaram ferramentas de IA para projetar e aperfeiçoar scripts maliciosos.

Outro grupo iraniano, denominado STORM-0817, concentrou seus esforços no desenvolvimento de malware direcionado a dispositivos Android. O software desenvolvido permitia a extração de informações confidenciais, como registros de chamadas, contatos e mensagens. Além disso, o grupo buscou auxílio no ChatGPT para depurar códigos e aprimorar técnicas de raspagem de dados em redes sociais como o Instagram, evidenciando como os modelos de IA estão sendo integrados em várias fases de ataques complexos.

Manipulação e Desinformação

O relatório também documenta campanhas de desinformação que utilizam a geração de conteúdo por IA. Uma operação chamada A2Z exemplifica a utilização do ChatGPT para gerenciar campanhas de desinformação em larga escala. Esse grupo criou perfis e comentários em diversas línguas, publicando-os em plataformas como X (antigo Twitter) e Facebook. As mensagens, escritas em inglês e italiano, promoviam o Azerbaijão como um fornecedor chave de energia para a Europa e minimizavam as críticas ao seu histórico de direitos humanos.

Outra operação, chamada Stop News, de origem russa, produziu artigos e comentários em inglês, francês e russo. O grupo lançou uma série de sites que se passavam por meios de comunicação na África e no Reino Unido, embora a maioria de suas publicações não tenha obtido grande repercussão. Os artigos eram acompanhados por imagens geradas pelo DALL·E, outra ferramenta da OpenAI, mas estas também não conseguiram atrair um público significativo.

Um incidente peculiar mencionado no relatório envolveu um golpe de trolls russos que disseminaram uma mensagem falsa no X, fingindo que era um erro do ChatGPT ao tentar apoiar conteúdo favorável ao ex-presidente dos EUA, Donald Trump. A postagem ganhou tração nas redes sociais e se tornou viral rapidamente, mostrando como a desinformação pode se espalhar mesmo quando não é originada diretamente da IA.

Desafios para a Cibersegurança

Embora a OpenAI tenha concluído que os atores maliciosos não conseguiram desenvolver novas variantes de malware totalmente inovadoras por meio da IA, o relatório destaca que as ferramentas de inteligência artificial permitiram que esses grupos realizassem ataques de forma mais rápida e eficiente. Os modelos de IA, como o ChatGPT, foram especialmente úteis para tarefas intermediárias, como a depuração de códigos e a elaboração de e-mails maliciosos, otimizando a capacidade operacional dos atacantes sem a necessidade de conhecimentos técnicos avançados.

A combinação de ferramentas de IA com técnicas tradicionais representa um desafio significativo para a indústria da cibersegurança. Os modelos de linguagem permitem que os atacantes reduzam os tempos de desenvolvimento, identifiquem vulnerabilidades com maior precisão e criem campanhas de phishing mais personalizadas, aumentando o potencial de dano.

Medidas de Prevenção

Em resposta a essas ameaças, a OpenAI afirmou que reforçou seus protocolos de segurança e estabeleceu equipes especializadas na detecção e prevenção do uso malicioso de seus modelos. A empresa também está colaborando com outras empresas de tecnologia e organizações governamentais para compartilhar informações sobre ameaças emergentes e coordenar ações preventivas. "A cooperação é essencial para antecipar riscos e garantir que nossas ferramentas sejam utilizadas para fins positivos", destacou a OpenAI em seu relatório.

O documento ressalta que a indústria de tecnologia deve adotar uma postura proativa diante desses desafios. "Não é apenas responsabilidade da OpenAI", alerta o relatório, instando outras empresas de inteligência artificial generativa a implementarem medidas de segurança eficazes, incluindo a criação de algoritmos mais robustos que consigam detectar e bloquear atividades maliciosas antes que se tornem ameaças reais.

Fonte: GAZETA BRASIL
Comunicar erro

Comentários Comunicar erro

Comando Geral BG

© 2024 Comando Geral BG - Todos os direitos reservados.

•   Política de Cookies •   Política de Privacidade    •   Contato   •

Comando Geral BG
Acompanhantes de Goiania Deusas Do Luxo