Terça-feira, 10 de fevereiro de 2026

Vídeos feitos por IA inundam as redes e ninguém sabe mais o que é real

Um vídeo no TikTok, em outubro, parecia mostrar uma mulher sendo entrevistada por uma repórter de televisão sobre o uso de benefícios de alimentação. As mulheres não eram reais. A conversa nunca aconteceu. O vídeo foi gerado por inteligência artificial. Ainda assim, as pessoas pareceram acreditar que se tratava de uma conversa real sobre a venda de auxílio-alimentação por dinheiro, o que configuraria um crime.

Nos comentários, muitos reagiram ao vídeo como se fosse verdadeiro. Apesar de sinais sutis de alerta, centenas passaram a rotular a mulher como criminosa — alguns com racismo explícito — enquanto outros atacavam programas de assistência do governo, justamente quando um debate nacional se intensificava em torno dos cortes planejados pelo presidente Donald Trump no programa.

Vídeos como essa falsa entrevista, criados com o novo aplicativo da OpenAI, o Sora, mostram como a percepção pública pode ser facilmente manipulada por ferramentas capazes de produzir uma realidade alternativa a partir de uma série de comandos simples.

Nos dois meses desde a chegada do Sora, vídeos enganosos dispararam no TikTok, X, YouTube, Facebook e Instagram, segundo especialistas que acompanham esse tipo de conteúdo. A enxurrada acendeu o alerta sobre uma nova geração de desinformação e falsificações.

A maioria das grandes empresas de redes sociais tem políticas que exigem a divulgação do uso de inteligência artificial e, de forma ampla, proíbem conteúdos com a intenção de enganar. Mas essas salvaguardas se mostraram extremamente insuficientes diante do salto tecnológico representado pelas ferramentas da OpenAI.

Embora muitos vídeos sejam memes bobos ou imagens fofas — porém falsas — de bebês e animais de estimação, outros têm como objetivo estimular o tipo de hostilidade que frequentemente marca o debate político online. Eles já apareceram em operações de influência estrangeira, como a campanha em curso da Rússia para desmoralizar a Ucrânia.

Pesquisadores que acompanham usos enganosos dizem que agora cabe às empresas fazer mais para garantir que as pessoas saibam o que é real e o que não é.

“Eles poderiam fazer um trabalho melhor na moderação de conteúdo de desinformação? Sim, claramente não estão fazendo isso”, disse Sam Gregory, diretor executivo da Witness, uma organização de direitos humanos focada nas ameaças da tecnologia. “Poderiam ser mais proativos na busca por informações geradas por IA e rotulá-las eles mesmos? A resposta também é sim.”

O vídeo sobre revenda de benefícios de alimentação foi um de vários que circularam enquanto o impasse sobre o fechamento do governo dos Estados Unidos se arrastava, deixando beneficiários reais do programa, o Supplemental Nutrition Assistance Program (SNAP), nos Estados Unidos, tentando alimentar suas famílias.

Até agora, as plataformas têm confiado sobretudo nos criadores para informar que o conteúdo publicado não é real — mas eles nem sempre o fazem. E, embora existam formas de plataformas como YouTube e TikTok detectarem que um vídeo foi feito com inteligência artificial, nem sempre isso é sinalizado aos espectadores de imediato.

“Eles deveriam ter estado preparados”, disse Nabiha Syed, diretora executiva da Mozilla Foundation, organização de segurança tecnológica por trás do navegador Firefox, referindo-se às empresas de redes sociais.

As empresas responsáveis pelas ferramentas de IA afirmam estar tentando deixar claro para os usuários quais conteúdos são gerados por computador. O Sora e a ferramenta concorrente do Google, chamada Veo, incorporam uma marca-d’água visível nos vídeos que produzem.

O Sora, por exemplo, adiciona o rótulo “Sora” a cada vídeo. Ambas também incluem metadados invisíveis, legíveis por computador, que indicam a origem de cada falsificação.

A ideia é informar as pessoas de que o que estão vendo não é real e fornecer às plataformas sinais digitais para detectá-los automaticamente.

Algumas plataformas estão usando essa tecnologia. O TikTok, aparentemente em resposta às preocupações com o realismo dos vídeos falsos, anunciou na semana passada que vai endurecer suas regras sobre a divulgação do uso de IA. Também prometeu novas ferramentas para permitir que os usuários escolham quanto conteúdo sintético, em vez de genuíno, desejam ver.

O YouTube usa a marca-d’água invisível do Sora para acrescentar um pequeno rótulo indicando que os vídeos de IA foram “alterados ou sintéticos”. Com informações do portal O Globo.

Compartilhe esta notícia:

Voltar Todas de Variedades

A Nasa reacendeu um debate centenário e provocou uma onda de críticas de brasileiros nas redes sociais
Pode te interessar
Baixe o app da TV Pampa App Store Google Play