Teste aponta que redes sociais não alertam usuários sobre vídeos gerados por IA

Um experimento conduzido pelo The Washington Post revelou que sete das oito maiores redes sociais falharam em avisar o público de que um vídeo publicado foi criado por inteligência artificial (IA). Apenas o YouTube exibiu um alerta, mas de forma discreta, na descrição do conteúdo.

Como o teste foi feito

Os pesquisadores enviaram às plataformas um clipe produzido pelo Sora, gerador de vídeos da OpenAI. O arquivo trazia metadados do padrão Credenciais de Conteúdo, criado em 2021 por empresas como Microsoft, Adobe e BBC para registrar informações invioláveis sobre a origem de mídias digitais.

Entre os dados acrescentados estavam as expressões “Criado usando IA Generativa” e “publicado pela OpenAI”. O objetivo era verificar se as redes mantinham esse marcador e o disponibilizavam aos usuários.

Resultados obtidos

Nenhuma das oito plataformas manteve os metadados ou ofereceu ferramenta para inspecioná-los. O desempenho foi o seguinte:

  • YouTube – exibiu a mensagem “Conteúdo alterado ou sintético”, mas apenas dentro da descrição, que precisa ser aberta manualmente.
  • Facebook, Instagram, Pinterest, TikTok, LinkedIn, Snapchat e X – não mostraram qualquer indicação de que o vídeo era artificial.

Além disso, todas removeram o marcador digital ao processar o upload, impedindo a verificação posterior da procedência do material.

Por que o padrão é importante

O sistema Credenciais de Conteúdo é administrado pela Coalition for Content Provenance and Authenticity (C2PA), que reúne centenas de empresas, incluindo Google, Meta, Sony, Nikon, Intel, OpenAI e TikTok. A adesão, contudo, é voluntária.

Estudos de Arosha Bandara, da Open University, e Dilrukshi Gamage, da Universidade de Colombo, indicam que rotular conteúdo como gerado por IA ajuda o público a perceber que ele não é real. Para Bandara, a ausência de identificação representa um risco, já que “todo vídeo ou fotografia pode ser tratado como suspeito até que se prove o contrário”.

Compromissos públicos e legislação

Gigantes como Google e OpenAI se comprometeram, em acordo com o governo dos Estados Unidos, a desenvolver métodos para sinalizar conteúdo sintético. Mesmo assim, a adoção prática segue limitada, segundo o teste.

Na Califórnia, uma lei assinada pelo governador Gavin Newsom exigirá, a partir do próximo ano, que plataformas digitais indiquem de forma visível quando um material foi alterado ou criado por IA.

Posicionamento das empresas

Ao Post, o Google afirmou que o padrão Credenciais de Conteúdo é “apenas parte” de sua estratégia e reconheceu que a adoção “levará tempo”. Meta, OpenAI, TikTok, Snapchat e X não responderam aos pedidos de comentário. LinkedIn e Pinterest disseram que não se pronunciariam.

Andrew Jenks, diretor-executivo da C2PA, declarou que os usuários “precisam saber como um conteúdo foi produzido” e defendeu esforços contínuos do setor para garantir transparência.

Com informações de Olhar Digital

Rolar para cima