Início Notícias À medida que a guerra da Rússia se arrasta, vídeos ultrarrealistas de...

À medida que a guerra da Rússia se arrasta, vídeos ultrarrealistas de IA tentam retratar soldados ucranianos em perigo

22
0

Os vídeos espalharam-se no YouTube, TikTok, Fb e X. Todos procuravam retratar os soldados ucranianos como relutantes em lutar e prontos a desistir.

Parecem ser a mais recente salva de desinformação destinada a distorcer a percepção pública da guerra da Rússia com a Ucrânia. E embora não esteja claro quem criou ou postou os vídeos, eles se somam a um conjunto crescente de informações falsas que se tornaram cada vez mais sofisticadas e difíceis de detectar.

“Alegações falsas criadas usando Sora são muito mais difíceis de detectar e desmascarar. Mesmo os melhores detectores de IA às vezes têm dificuldades”, disse Alice Lee, analista de influência russa do NewsGuarduma plataforma apartidária de dados, análise e jornalismo que identifica informações confiáveis ​​e enganosas on-line. “O fato de muitos vídeos não terem inconsistências visuais significa que o público pode assistir e percorrer esses vídeos em plataformas como o TikTok, sem ter ideia de que o vídeo que acabaram de ver é falsificado.”

A OpenAI não respondeu a um pedido de comentário sobre o papel de Sora na criação de vídeos enganosos retratando especificamente zonas de conflito, mas disse por e-mail: “A capacidade do Sora 2 de gerar vídeo e áudio hiper-realistas levanta preocupações importantes sobre semelhança, uso indevido e engano”.

“Embora a ação cinematográfica seja permitida, não permitimos violência gráfica, materials extremista ou engano”, disse a empresa à NBC Information. “Nossos sistemas detectam e bloqueiam conteúdo violador antes que ele chegue ao Sora Feed, e nossa equipe de investigação desmonta ativamente as operações de influência.”

O vídeo gerado por IA evoluiu rapidamente nos últimos anos, de básico e bruto para quase perfeito, com muitos especialistas alertando cada vez mais que em breve poderá haver poucas maneiras de distinguir facilmente o actual do falso. O Sora 2 da OpenAI, lançado em outubro, está entre os geradores de vídeo mais impressionantes, com Clipes gerados por Sora agora enganam rotineiramente os espectadores.

Entretanto, a contínua invasão da Ucrânia pela Rússia tem sido – desde os seus primeiros dias – objecto de esforços de manipulação usando tudo, desde imagens realistas de videojogos até transmissões ao vivo falsas de zonas de guerra. Muitos destes esforços de desinformação foram atribuídos a intervenientes estatais russos.

Estes vídeos de Sora surgem num momento em que as negociações de paz apoiadas pelos EUA permanecem inconclusivas, com cerca de 75% dos ucranianos rejeitando categoricamente as propostas russas para acabar com a guerra, de acordo com um estudo conduzido pelo Instituto Internacional de Sociologia de Kiev. O mesmo estudo concluiu que 62% dos ucranianos estão dispostos a suportar a guerra durante o tempo que for necessário, mesmo que continuem os ataques mortais russos à capital da Ucrânia.

O Centro de Combate à Desinformação, parte do Conselho Nacional de Segurança e Defesa da Ucrânia, disse à NBC Information que durante o ano passado houve um “aumento significativo no quantity de conteúdo criado ou manipulado usando IA” destinado a minar a confiança pública e o apoio internacional ao governo da Ucrânia.

“Isso inclui declarações fabricadas supostamente feitas em nome de militares ou comandos ucranianos, bem como vídeos falsos apresentando ‘confissões’, ‘escândalos’ ou eventos fictícios”, disse o centro por e-mail, observando que esses vídeos ganham centenas de milhares de visualizações devido à sua natureza emocional e sensacional.

Embora a OpenAI tenha colocado algumas proteções em torno do que pode ser feito com Sora, não está claro quão eficazes elas são. A própria empresa afirma que, embora “existem salvaguardas em camadas, alguns comportamentos prejudiciais ou violações de políticas ainda podem contornar as mitigações”.

UM O estudo da NewsGuard descobriu que Sora 2 “produziu vídeos realistas apresentando afirmações comprovadamente falsas 80% das vezes (16 em 20) quando solicitado a fazê-lo.” Das 20 alegações falsas apresentadas ao Sora 2, cinco foram popularizadas por operações de desinformação russas.

O estudo da NewsGuard descobriu que mesmo quando o Sora 2 inicialmente rejeitou as falsas alegações, afirmando que um aviso “violava suas políticas de conteúdo”, os pesquisadores ainda foram capazes de gerar imagens usando diferentes formulações desses avisos. A NBC Information conseguiu produzir vídeos semelhantes sobre Sora, mostrando soldados ucranianos chorando, dizendo que foram forçados a entrar no exército ou se renderam com braços erguidos e bandeiras brancas ao fundo.

Muitos geradores de vídeo de IA tentam rotular ou marcar suas criações para sinalizar que são geradas por computador. A OpenAI disse que suas proteções de segurança contra desinformação para Sora incluem metadados que indicam as origens do vídeo e uma marca d’água móvel presente em cada vídeo baixado.

Mas existem maneiras de remover ou minimizar esses esforços. Alguns dos vídeos do Sora pareciam ter suas marcas d’água em movimento obscurecidas, algo perceptível em uma inspeção mais detalhada. Muitos aplicativos e websites agora oferecem aos usuários uma maneira de ocultar marcas d’água de IA. Outros vídeos vistos pela NBC Information incluíam marcas d’água cobertas com texto sobreposto ao vídeo.

Apesar de observação da política da empresa que Sora AI não gerará conteúdo mostrando “violência gráfica”, a NBC Information encontrou um vídeo com a marca d’água de Sora parecendo mostrar um soldado ucraniano baleado na cabeça na linha de frente.

Dos vídeos analisados ​​pela NBC Information, todos foram postados no TikTok ou no YouTube Shorts – duas plataformas proibidas na Rússia, mas facilmente acessíveis para quem está na Europa e nos EUA. Algumas incluíam legendas emocionais em vários idiomas para que usuários que não falam ucraniano ou russo possam entender.

TikTok e YouTube proíbem a postagem de conteúdo enganoso gerado por IA e deepfakes em suas plataformas, com ambos fornecendo tags de descrição “geradas por IA” para conscientização do espectador em filmagens de aparência realista.

Um porta-voz do YouTube disse que a empresa removeu um dos canais que postou os vídeos depois de ser sinalizado pela NBC Information, mas que dois outros vídeos não violaram suas políticas e, portanto, permaneceram na plataforma com um rótulo que os descreve como gerados por IA.

Dos vídeos de IA encontrados pela NBC Information com um nome de usuário TikTok anexado, todos foram removidos da plataforma. Um porta-voz do TikTok disse que em junho de 2025, “mais de 99% do conteúdo violador que removemos foi removido antes que alguém o denunciasse para nós, e mais de 90% foi removido antes de ter uma única visualização”.

Apesar dessas postagens e contas do TikTok terem sido rapidamente removidas, os vídeos permanecem como republicações no X e no Fb. Tanto X quanto o Fb não responderam aos pedidos de comentários da NBC Information.

Esta última campanha de desinformação surge num momento em que os utilizadores confiam cada vez mais nos vídeos das redes sociais para se manterem informados sobre o últimas notícias ao redor do mundo.

“Qualquer pessoa que consuma conteúdo on-line precisa perceber que muito do que vemos hoje em vídeos, fotos e textos é de fato gerado por IA”, disse Nina Jankowicz, cofundadora e CEO do American Daylight Challenge, uma organização que trabalha contra a desinformação on-line. “Mesmo que Sora apresente [safety] guarda-corpos, neste espaço haverá outras empresas, outros aplicativos e outras tecnologias que nossos adversários constroem para tentar infectar nosso espaço de informação.”



avots