Grande parte das operações maliciosas foram interrompidas pela OpenAI em seus estágios iniciais
Redator
Publicado em 6 de junho de 2025 às 09h40.
A OpenAI revelou que propagandistas chineses estão utilizando o ChatGPT para criar postagens e comentários em plataformas de mídia social, além de gerar documentos internos, como avaliações de desempenho detalhando essas atividades. O relatório com essas informações foi publicado nesta quarta-feira, 4.
Essas revelações foram feitas por pesquisadores da empresa, que disse ter interrompido, nos últimos três meses, 10 operações que usavam sua inteligência artificial para fins maliciosos – quatro delas com forte indício de origem chinesa. As contas identificadas foram banidas.Utilizando IA, essas operações visavam diversos países e temas, até mesmo envolvendo jogos de estratégia. Algumas delas combinaram elementos de operações de influência, engenharia social e vigilância, atuando por meio de diferentes plataformas e sites, explicou Ben Nimmo, investigador principal da equipe de inteligência e investigações da OpenAI.
Durante uma coletiva de imprensa sobre o mais recente relatório de ameaças da empresa, Nimmo afirmou estarmos “vendo da China uma gama crescente de operações clandestinas usando diversas táticas”, inclusive por meio das ferramentas de IA da OpenAI.
Uma das operações chinesas identificadas, chamada "Sneer Review", utilizou o ChatGPT para gerar comentários curtos para serem postados em plataformas como TikTok, X, Reddit e Facebook, em inglês, chinês e urdu (idioma oficial do Paquistão). Os assuntos abordados incluíam críticas e elogios à desestruturação da Usaid – agência dos Estados Unidos para ajuda humanitária – durante a istração Trump, além de críticas a um jogo taiwanês que retratava a luta contra o Partido Comunista chinês.
Em muitos casos, a operação gerou postagens e respostas para criar a impressão falsa de engajamento orgânico. Além disso, o grupo usou a IA para criar um relatório interno descrevendo as etapas realizadas para estabelecer e istrar a operação. A OpenAI observou que os comportamentos nas redes sociais seguiam de perto os procedimentos descritos no documento.
Outro caso ligado à China envolveu uma operação focada na coleta de informações, na qual os envolvidos se avam por jornalistas e analistas geopolíticos. Ela usou o ChatGPT para criar postagens, traduzir e-mails e analisar dados, incluindo uma correspondência supostamente dirigida a um senador dos EUA sobre a nomeação de um funcionário da istração do país.
Em fevereiro, a OpenAI já havia mencionado uma operação de vigilância que alegava observar redes sociais para alimentar relatórios sobre protestos no ocidente para os serviços de segurança chineses. A operação utilizou ferramentas da empresa para depurar código e gerar descrições para vendas de ferramentas de monitoramento social.
No relatório desta semana, a OpenAI também informou que ações similares de países como Rússia, Irã, Filipinas, Camboja e Coreia do Norte também foram interrompidas. Elas incluíam campanhas de recrutamento, marketing e fraude de emprego.
Apesar da variedade das táticas utilizadas, Nimmo destacou que essas operações foram em grande parte interrompidas em seus estágios iniciais e não alcançaram grandes públicos. "Melhores ferramentas não significam necessariamente melhores resultados", concluiu.