Também conhecidos como deepfakes, esses conteúdos falsificados substituem o rosto ou a voz de uma pessoa pela de outra em vídeos ou gravações, criando a ilusão de que alguém disse ou fez algo que jamais ocorreu.
Também conhecidos como deepfakes, conteúdos falsificados criam a ilusão de que alguém disse ou fez algo que jamais ocorreu — como levar um canguru para o aeroporto
Repórter Publicado em 29 de maio de 2025 às 07h13. Última atualização em 9 de junho de 2025 às 08h08.Tamires Vitorio
Um canguru de apoio emocional é impedido de entrar no avião com a dona: parece o começo de uma piada ou de uma esquete de um programa de comédia, mas aconteceu. É claro que não de verdade. O vídeo que tem viralizado nas redes sociais não a de mais uma produção cada vez mais realista feita com inteligência artificial (IA).
A produção dos deepfakes utiliza técnicas avançadas, como as Redes Adversariais Generativas (GANs), que envolvem dois sistemas de inteligência artificial — o gerador, responsável por criar as imagens falsas, e o discriminador, que avalia sua autenticidade. Esses sistemas trabalham em conjunto, aprimorando continuamente a qualidade das falsificações ao aprender com vastos bancos de dados de imagens, vídeos e áudios reais.
https://www.tiktok.com/@yagirlgabby_/video/7509214607869840683?q=kangaroo%20airport&t=1748510945685
Estudos recentes e discussões acadêmicas destacam como os perigos desses vídeos têm aumentado nos últimos anos.
Na University of Maryland, durante o TechFest 2025, especialistas ressaltaram que deepfakes conseguem replicar vozes e imagens com poucos dados, facilitando fraudes financeiras, prejuízos à reputação e desafios legais.
A professora Minoo Modaresnezhad enfatizou que “os estudantes aprenderam sobre os desafios éticos, vieses e preocupações com privacidade ligados à IA e segurança cibernética, reconhecendo que a tecnologia sozinha não é suficiente para proteger contra esses riscos.”
O impacto dessas tecnologias já é visível.
Professores da West Virginia University, Laurel Cook e Amy Cyphert, em um artigo publicado no site da universidade, destacam que conteúdos gerados por IA influenciam eventos políticos, citando robocalls usando a voz do presidente Joe Biden para enganar eleitores.
“[Deepfakes] são muito preocupantes porque tendemos a confiar em vídeo e som como provas suficientes para acreditar no que vemos e ouvimos”, diz Cook.
Ainda segundo Cook, “[em deepfakes] tendemos a confiar em vídeo e som como provas suficientes para acreditar que estamos vendo ou ouvindo algo real", o que deixou de ser verdade com a evolução das IAs.
"As abordagens comuns para atrair engajamento incluem o uso de apelos emocionais, especialmente aqueles que incitam a raiva, dividindo o público e sendo exagerados, como o uso proposital de pronúncias incorretas. Além disso, esse tipo de conteúdo pode incluir o roubo ou distorção de informações disponíveis publicamente. Essas táticas costumam ser combinadas com conteúdos deepfake projetados para provocar uma resposta imediata, geralmente na forma de boca a boca, que os mecanismos de busca e algoritmos das redes sociais recompensam amplamente. Esse resultado também pode afetar negativamente o retorno financeiro daqueles que publicam conteúdo original. Quando essas táticas são usadas, o consumo saudável desse tipo de conteúdo deve incluir checagem dos fatos e/ou triangulação de fontes", explicou.
Até mesmo o Departamento de Segurança Interna dos EUA já se posicionou sobre os vídeos feitos por IA.
O departamento aponta que deepfakes são usados em operações maliciosas, pornografia não consensual e ataques de engenharia social.
Em documento divulgado pela instituição americana, Dr. Matthew Wright, professor do Rochester Institute of Technology, alerta que “deepfakes são mais visualmente impactantes, precisos e em maior resolução” do que os antigos “cheapfakes,” tornando-os mais difíceis de detectar — e ainda mais perigosos.
No relatório do World Economic Forum de 2025, são destacados dois grandes riscos das deepfakes: assédio — como pornografia não consensual e chantagem — e golpes de engenharia social, como clonagem de voz para fraudar pessoas e empresas.
Um caso emblemático envolveu um funcionário financeiro em Hong Kong que pagou US$ 25 milhões após uma chamada no Zoom com participantes deepfakes.
O fundador da Microsoft, Bill Gates, reconhece os riscos da tecnologia, mas vê possibilidades de controle.
“Deepfakes e a desinformação gerada por IA podem minar eleições e a democracia. A ideia de usar tecnologia para espalhar mentiras não é nova… Estamos no estágio inicial de outra mudança profunda, a Era da IA", disse ele.
Além disso, Gates já foi alvo de vídeos deepfake, o que exemplifica os perigos dessa tecnologia. Um caso notório foi um vídeo viral em que ele aparecia sendo interrogado sobre temas polêmicos, mas, na verdade, sua imagem e voz foram manipuladas por IA para criar uma entrevista falsa.
Gates destaca ainda que, apesar dos riscos reais apresentados pela IA e pelos deepfakes, esses desafios podem ser gerenciados por meio de supervisão adequada, tecnologias de detecção e uso responsável da inteligência artificial.
Para o bilionário, a situação é semelhante às inovações anteriores, como os automóveis, que exigiram leis e padrões de segurança.
Com a popularização de ferramentas como Midjourney, DALL-E e Stable Diffusion, identificar imagens falsas se tornou mais difícil — mas não impossível. Existem técnicas e ferramentas que ajudam a reconhecer padrões artificiais:
Atenção aos detalhes visuais
Use o zoom para procurar por distorções. IA frequentemente comete erros em mãos, olhos, dentes e simetrias. Texturas estranhas, órios assimétricos e sombras incoerentes também são pistas.
Marcas d’água e artefatos ocultos
Algumas imagens carregam marcas discretas deixadas pelos próprios modelos geradores. Embora possam ser removidas, sua presença é um indício de origem sintética.
Busca reversa no Google
Ferramentas como Google Imagens ajudam a identificar a origem e o contexto de uma foto. Se ela só aparece em perfis anônimos ou montagens, o alerta deve ser ligado.
Detecção automatizada
Plataformas como AI or Not, Deepware Scanner e Forensically permitem verificar metadados, analisar padrões de compressão e detectar manipulações.
Verificação contextual
Se a imagem estiver atrelada a um evento, vale procurar por registros em veículos jornalísticos confiáveis. A ausência de cobertura é, muitas vezes, sinal de fraude.
Inconsistências visuais
Fique atento a objetos ou pessoas que aparecem e desaparecem de forma inesperada.
Note mudanças estranhas nas formas, bordas borradas ou falhas nos contornos.
Observe sombras e iluminação que não combinam ou são inconsistentes ao longo do vídeo.
Movimentos não naturais
Movimentos bruscos, mecânicos ou descoordenados, principalmente em gestos, piscadas e expressões faciais, são sinais de manipulação.
Piscadas muito raras ou em excesso e expressões que não condizem com o contexto podem indicar deepfake.
Sincronia labial
Verifique se o movimento dos lábios acompanha corretamente o áudio.
A falta de sincronização entre o som e o movimento labial é um dos indícios mais claros de vídeo manipulado.
Textura da pele e detalhes faciais
Procure por brilhos incomuns na pele ou ausência de detalhes naturais, como rugas, poros e manchas.
Desníveis de cor entre o rosto e outras partes do corpo também podem indicar edição artificial.
Qualidade do áudio
Ruídos de fundo excessivos, cortes abruptos ou variações estranhas na voz podem ser pistas de áudio gerado, ou editado por IA.
Expressões e emoções desconexas
Observe se as expressões faciais estão alinhadas com o conteúdo falado.
Por exemplo, uma pessoa aparentando felicidade ao dar uma notícia triste pode ser um sinal de manipulação.
Verificação da fonte e contexto
Sempre confirme se o vídeo foi publicado por fontes confiáveis e oficiais.
Busque validação em veículos de comunicação reconhecidos para evitar cair em armadilhas de conteúdos falsos.
Microsoft Video Authenticator (em desenvolvimento): analisa vídeos para detectar manipulações específicas feitas por IA.
Originality.AI, GPTZero, Copyleaks AI Content Detector: embora mais focadas em textos, algumas dessas ferramentas também oferecem recursos para identificar conteúdos gerados artificialmente.