Um experimento conduzido pelo The Washington Post revelou que sete das oito maiores redes sociais falharam em avisar o público de que um vídeo publicado foi criado por inteligência artificial (IA). Apenas o YouTube exibiu um alerta, mas de forma discreta, na descrição do conteúdo.
Como o teste foi feito
Os pesquisadores enviaram às plataformas um clipe produzido pelo Sora, gerador de vídeos da OpenAI. O arquivo trazia metadados do padrão Credenciais de Conteúdo, criado em 2021 por empresas como Microsoft, Adobe e BBC para registrar informações invioláveis sobre a origem de mídias digitais.
Entre os dados acrescentados estavam as expressões “Criado usando IA Generativa” e “publicado pela OpenAI”. O objetivo era verificar se as redes mantinham esse marcador e o disponibilizavam aos usuários.
Resultados obtidos
Nenhuma das oito plataformas manteve os metadados ou ofereceu ferramenta para inspecioná-los. O desempenho foi o seguinte:
- YouTube – exibiu a mensagem “Conteúdo alterado ou sintético”, mas apenas dentro da descrição, que precisa ser aberta manualmente.
- Facebook, Instagram, Pinterest, TikTok, LinkedIn, Snapchat e X – não mostraram qualquer indicação de que o vídeo era artificial.
Além disso, todas removeram o marcador digital ao processar o upload, impedindo a verificação posterior da procedência do material.
Por que o padrão é importante
O sistema Credenciais de Conteúdo é administrado pela Coalition for Content Provenance and Authenticity (C2PA), que reúne centenas de empresas, incluindo Google, Meta, Sony, Nikon, Intel, OpenAI e TikTok. A adesão, contudo, é voluntária.
Estudos de Arosha Bandara, da Open University, e Dilrukshi Gamage, da Universidade de Colombo, indicam que rotular conteúdo como gerado por IA ajuda o público a perceber que ele não é real. Para Bandara, a ausência de identificação representa um risco, já que “todo vídeo ou fotografia pode ser tratado como suspeito até que se prove o contrário”.
Imagem: Miha Creative
Compromissos públicos e legislação
Gigantes como Google e OpenAI se comprometeram, em acordo com o governo dos Estados Unidos, a desenvolver métodos para sinalizar conteúdo sintético. Mesmo assim, a adoção prática segue limitada, segundo o teste.
Na Califórnia, uma lei assinada pelo governador Gavin Newsom exigirá, a partir do próximo ano, que plataformas digitais indiquem de forma visível quando um material foi alterado ou criado por IA.
Posicionamento das empresas
Ao Post, o Google afirmou que o padrão Credenciais de Conteúdo é “apenas parte” de sua estratégia e reconheceu que a adoção “levará tempo”. Meta, OpenAI, TikTok, Snapchat e X não responderam aos pedidos de comentário. LinkedIn e Pinterest disseram que não se pronunciariam.
Andrew Jenks, diretor-executivo da C2PA, declarou que os usuários “precisam saber como um conteúdo foi produzido” e defendeu esforços contínuos do setor para garantir transparência.
Com informações de Olhar Digital