Será que todos esses vídeos virais de “campo de batalha ao vivo” são gerados por IA? Aqui estão 5 dicas para não ser enganado.

"Sinto falta dos tempos em que as imagens na internet eram sempre precisas… espera, parece que essa época nunca existiu."

As notícias sobre o recente conflito no Irã têm inundado diversos canais de notícias com imagens de explosões, sirenes de ataque aéreo e outras cenas de grande impacto. No entanto, grande parte das "reportagens do campo de batalha" que receberam inúmeras curtidas e compartilhamentos são, na verdade, falsas.

▲Todos esses vídeos acumularam mais de um milhão de visualizações, mas, no fim das contas, foi confirmado que foram gerados por inteligência artificial.

Diversas contas verificadas de mídia social no X publicaram vários vídeos falsos gerados por IA; no entanto, em suas informações complementares, todas mencionaram que havia sinais muito óbvios de IA nos vídeos, como o efeito de fumaça, a superfície da água distorcida e os painéis solares no telhado.

Alguns desses vídeos são de conflitos antigos e sem relação com o ocorrido, de nove anos atrás, enquanto outros são ilusões sintéticas manipuladas por inteligência artificial. O mais absurdo é que o governador do Texas, Greg Abbott, também retuitou um vídeo de videogame antes de apagá-lo rapidamente.

▲Uma cena simulada de videogame; este vídeo já foi visualizado mais de 7 milhões de vezes | Fonte do vídeo: X@realJoelFischer

Este suposto "vídeo de conflito em primeira mão", que tem sido amplamente citado nas redes sociais internacionais, foi na verdade retirado diretamente de um videogame com temática militar.

É notável que as pessoas tratem não apenas a IA como notícia, mas também vídeos de jogos. Em 2026, com os rápidos avanços da IA ​​na geração de imagens e vídeos, o antigo ditado da internet "uma imagem vale mais que mil palavras" tornou-se uma completa piada.

Essas postagens, que foram compartilhadas milhões de vezes, foram todas confirmadas como sendo uma criação de baixo nível, um verdadeiro monstro de Frankenstein da inteligência artificial.

Além da proliferação de vídeos, outra coisa que chamou a atenção foi uma imagem de satélite que viralizou no X. Afinal, quem gastaria centenas de milhões para lançar um satélite só para usar Photoshop em uma imagem online e me enganar?

A imagem mostra um sistema de radar militar dos EUA no Catar reduzido a escombros após ser atacado por um drone iraniano. Até mesmo a conta oficial do principal veículo de mídia do Irã, o Tehran Times, compartilhou com entusiasmo essa foto do "resultado da batalha".

▲Fonte da imagem: X@TehranTimes79

Em apenas 48 horas, a publicação alcançou mais de 1 milhão de visualizações. No entanto, especialistas em inteligência de código aberto rapidamente expuseram as falhas na imagem.

Após comparação, descobriu-se que não se tratava de uma base de radar no Catar, mas sim de uma área no Bahrein. Ainda mais absurdo, a imagem foi "criada" à força usando inteligência artificial a partir de uma foto antiga de um ano atrás.

Como você descobriu isso? Alguns internautas perceberam, após uma análise mais detalhada, que a foto é de péssima qualidade. Embora o prédio pareça ter sido destruído, a posição dos carros estacionados ao redor é exatamente a mesma de um ano atrás. Mais surpreendente ainda é que o ângulo de luz e sombra na suposta foto "após a explosão" é exatamente o mesmo da foto tirada em um dia ensolarado um ano antes.

Derrotar a magia da IA ​​ainda se resume a estes cinco passos simples.

Embora a maior parte do conteúdo gerado por IA atualmente precise ter uma marca d'água visível ou digital, esse sistema ainda é fácil de burlar.

Tomemos como exemplo as imagens geradas pelo Nano Banana. As instruções oficiais afirmam que serão adicionadas a marca d'água com o logotipo da Gemini e uma marca d'água digital com o ID da Synth, indetectável a olho nu. No entanto, nas redes sociais, após várias rodadas de capturas de tela manuais, recortes e compressões, a Gemini dificilmente reconhece mais as marcas d'água previamente inseridas.

▲Já existem métodos disponíveis no Reddit para contornar a marca d'água do Synth ID.

1. Preste atenção aos detalhes e identifique qualquer coisa que pareça fora do normal.

Algumas pessoas perguntam: já que as falhas nesses vídeos e imagens de IA se mostraram tão óbvias, por que ninguém as notou desde o início?

A razão é bastante simples: quando olhamos para um rosto gerado por IA, nossos cérebros instintivamente procuram inconsistências — o formato dos olhos, a textura da pele e as orelhas. Este é um instinto biológico que desenvolvemos ao longo de milhões de anos.

No entanto, esse instinto falha ao olhar para um prédio, uma estrada e o terreno fotografados a centenas de quilômetros de altitude. Isso porque ninguém nasce sabendo como uma estação de radar destruída "deveria" parecer sob um sensor com uma resolução específica.

Com pouca informação disponível como referência, esses conteúdos desconhecidos, fabricados por IA, naturalmente se tornam fatos objetivos aos olhos das pessoas comuns.

Com algoritmos agora perfeitamente capazes de simular luz, sombra e textura da pele, a lógica para encontrar falhas mudou. Além de simplesmente se libertar da dependência de um quadro de referência e encontrar erros técnicos, o foco passou a ser a identificação de lacunas lógicas na realidade.

Por exemplo, estilos arquitetônicos inadequados no cenário de fundo, ou ações menores e ilógicas dos personagens.

▲Foto não verificada

Após a prisão de Maduro há algum tempo, diversas "fotos em cativeiro" dele circularam amplamente nas redes sociais. Equipes de investigação visual da mídia estrangeira logo descobriram que essas imagens eram suspeitas: o desenho da janela do avião não correspondia ao modelo real da aeronave, e as roupas de Maduro eram diferentes nas duas fotos.

Embora não haja provas diretas de que sejam falsas, essas dúvidas levaram a mídia a decidir não publicar as fotos.

2. Quem envia a mensagem é mais importante do que a mensagem em si.

A identidade da pessoa que publicou a foto muitas vezes conta mais história do que o próprio conteúdo.

A suposta foto do assassinato de Khamenei obteve 5,5 milhões de visualizações nas redes sociais, mas o proprietário da conta afirma na seção "Sobre" de seu site: "O SilverTrade.com está comprometido em fornecer as informações mais precisas, perspicazes e oportunas sobre a indústria de metais preciosos."

Mesmo com a foto de Maduro publicada no Truth Social, diversos veículos de comunicação ainda têm dúvidas sobre sua autenticidade.

No fim das contas, a maioria dos veículos de comunicação optou por citar a publicação inteira como uma captura de tela, em vez de apresentar apenas a foto, uma abordagem que transmitia uma sensação de "desconfiança, mas com valor jornalístico".

3. Rastreie as pegadas digitais; os registros históricos não mentem.

O método mais comum usado pela IA para criar notícias falsas é "reutilizar" material antigo. Ao usar buscas reversas de imagens em mecanismos de busca como Google e TinEye, ou mesmo verificando metadados da imagem (como horário da captura e modelo do dispositivo), é possível determinar rapidamente se o conteúdo é falso.

▲https://tineye.com/

Por exemplo, esta imagem manipulada clássica enganou facilmente vários meios de comunicação, simplesmente usando uma fotografia pré-existente, copiando-a e movendo-a.

4. Verificar informações de contexto importantes com base na hora e no local.

Se virmos um vídeo que alega ter sido filmado em determinado local, podemos verificar se as imagens correspondem a esse local usando o Google Maps ou imagens de satélite.

▲O Google Earth fornece imagens históricas completas e vistas de rua.

Você também pode usar o SunCalc para estimar a hora aproximada da foto, observando a direção das sombras na imagem. Se alguém afirma ter tirado a foto ontem à noite, mas as sombras indicam que foi tirada ao meio-dia, é quase certo que seja uma falsificação.

▲ Na comunidade fotográfica, o SunCalc também é um site geográfico que calcula com precisão as posições do sol e da lua para encontrar a hora dourada ideal para fotografar.

5. Utilize pesquisas aprofundadas para permitir que a IA combata a IA.

Quase todas as ferramentas de IA agora possuem seus próprios recursos de aprendizado profundo. Por exemplo, quando fizemos um resumo da batalha de IA durante o Festival da Primavera, utilizamos a função de aprendizado profundo do ChatGPT por meia hora para resumir essas informações para nós.

A vantagem da pesquisa aprofundada é que cada frase gerada por IA vem com um link para a fonte, permitindo que você veja diretamente de onde a informação vem e qual é a sua natureza. Se exigirmos alta precisão dos dados, podemos também adicionar a seguinte solicitação: "Para cada conclusão, forneça uma avaliação de credibilidade."

No entanto, é importante notar que pesquisas aprofundadas podem ser confiáveis, mas perguntas e respostas genéricas não o são.

Perguntar diretamente a uma IA: "Esta notícia é verdadeira?" às vezes resulta na mistura de especulações casuais publicadas nas redes sociais com relatórios oficiais, fornecendo uma resposta aparentemente plausível, mas incorreta. Uma pesquisa aprofundada, pelo menos, permite acessar a fonte original da informação e formar sua própria opinião.

▲Você consegue dizer qual dessas duas imagens é real?

Por exemplo, quando fornecemos diretamente essas duas imagens à IA e perguntamos: "Esta imagem foi gerada por IA?"

Gemini afirmou que ambas as imagens provavelmente são baseadas na mesma imagem original e foram geradas por meio de pós-processamento ou substituição de cores por IA. ChatGPT e Doubao me disseram que a imagem vermelha tem maior probabilidade de ter sido gerada por IA.

Atualmente, existem muitas ferramentas especializadas em detecção de adulteração de imagens disponíveis. Há alguns dias, alguns internautas testaram mais de dez ferramentas de detecção de conteúdo por IA disponíveis no mercado (incluindo hivedetect.ai, aioornot.com, copyleaks.com e algumas ferramentas de IA de uso geral), e os resultados de mais de 1000 testes mostraram…

A magia não pode derrotar a magia; usar IA para detectar IA é uma fantasia fadada ao fracasso.

▲Fonte da imagem: artigo do NYT (Essas ferramentas dizem que conseguem detectar falsificações de IA. Será que funcionam mesmo?)

As ferramentas de detecção por IA podem servir como referência; podem nos dar uma direção, mas não podem fazer julgamentos diretos.

Quando a Adobe comemorou o 25º aniversário do Photoshop, lançou um site para testar a autenticidade de imagens. Quem tiver interesse pode conferir. Naquela época, apenas com o Photoshop, já era possível tornar algumas imagens difíceis de distinguir, imagine então com a poderosa inteligência artificial de hoje.

▲ Como distinguir entre imagens reais e manipuladas digitalmente: https://landing.adobe.com/en/na/products/creative-cloud/69308-real-or-photoshop/index.html

"Deixem as balas voarem por um tempo."

Em resposta à recente proliferação de imagens falsas e notícias falsas geradas por IA, as plataformas de mídia social começaram a tomar medidas.

A partir de hoje, os criadores da plataforma X que publicarem vídeos gerados por IA sem identificá-los como "criados por IA" terão seu "Programa de Compartilhamento de Receita do Criador" suspenso por 90 dias. Caso violem essa regra novamente, serão permanentemente impedidos de obter receita publicitária da plataforma.

A divisão de receitas da plataforma X sempre foi considerável, e muitos veículos de mídia independentes impulsionados por IA atualizam simultaneamente no X. No início do ano, o X também atualizou seu programa de incentivo de conteúdo, alocando receita com base no número de vezes que o conteúdo aparece na página inicial, além de incentivar a criação de artigos mais longos.

▲Nikita Bier, gerente de produto da X, publicou que irá modificar o mecanismo de compartilhamento de receita para criadores de conteúdo.

O anúncio da política gerou indignação entre criadores e usuários do X. Alguns a apoiaram, dizendo: "Finalmente, algo está sendo feito!". Mas outros questionaram: "Por que visar apenas vídeos de conflito? Conteúdo falso em outras áreas não causa diversos danos?".

Suspeito que, mesmo que essas medidas abranjam notícias falsas em vários setores, a eficácia real provavelmente será bem menor do que o esperado. Afinal, os usuários podem facilmente republicar conteúdo usando outras contas, e a moderação de conteúdo da plataforma está longe de acompanhar a velocidade com que as imagens falsas se espalham.

Em um artigo do The Verge com uma entrevista a um especialista em notícias falsas, foi mencionado que "as pessoas comuns precisam estar cientes de que o ambiente digital atual é inerentemente tendencioso à manipulação e ao engano".

O problema maior agora parece ser que ainda não estamos suficientemente vigilantes em relação às informações falsas geradas por IA. Mas, como pessoas comuns, seria trabalhoso demais verificar a veracidade de cada notícia.

Ter paciência pode ser uma abordagem mais simples. A frase do filme de Jiang Wen, "Deixe as balas voarem por um tempo", representa a maneira mais sóbria e não convencional de lidarmos com a manipulação de algoritmos.

#Siga a conta oficial do iFanr no WeChat: iFanr (ID do WeChat: ifanr), onde você encontrará conteúdo ainda mais interessante o mais breve possível.

ifanr | Link original · Ver comentários · Sina Weibo