YouTube oferece detecção de deepfakes para Hollywood

WASHINGTON: O YouTube está oferecendo às celebridades e artistas de Hollywood uma ferramenta de detecção gratuita para ajudar a combater seus deepfakes, expandindo os esforços da plataforma de vídeo de propriedade do Google para se proteger contra imitações baseadas em IA.

No mês passado, o YouTube apresentou a sua ferramenta de proteção de semelhanças, que ajuda a identificar conteúdo em que o rosto de uma pessoa parece alterado ou gerado usando tecnologia de IA, para funcionários do governo, jornalistas e candidatos políticos.

A plataforma está agora a alargar o acesso a artistas, incluindo actores e músicos, que enfrentam um risco acrescido de terem a sua imagem utilizada indevidamente – potencialmente prejudicando as suas carreiras e distorcendo realidades partilhadas.

“Estamos expandindo nossa tecnologia de detecção de semelhança para a indústria do entretenimento: agências de talentos, empresas de gestão e as celebridades que elas representam”, disse o YouTube no início desta semana.

A detecção de semelhança “procura conteúdo gerado por IA com a semelhança de um participante, como um deepfake de seu rosto, e dá a eles o poder de encontrá-lo e solicitar a remoção”.

A gigante do vídeo acrescentou que celebridades e artistas podem acessar a ferramenta independentemente de terem um canal no YouTube.

“A abertura do YouTube de seus recursos de detecção de deepfake para figuras públicas reflete um ponto de viragem na forma como as plataformas abordam a proteção de identidade na era da IA ​​generativa”, disse Alon Yamin, executivo-chefe e cofundador da plataforma de detecção de conteúdo de IA Copyleaks.

“A tecnologia para replicar o rosto, a voz e os maneirismos de uma pessoa avançou mais rapidamente do que as salvaguardas que a rodeiam, criando uma lacuna que os malfeitores já estão a explorar.”

Apostas altas

A mudança ocorre depois que vídeos hiper-realistas de IA de celebridades mortas – criados com aplicativos como o Sora, fácil de usar da OpenAI – se espalharam rapidamente on-line, gerando debate sobre o controle das imagens de pessoas falecidas.

O aplicativo da OpenAI também gerou uma enxurrada de vídeos de celebridades como Michael Jackson e Elvis Presley.

No mês passado, a OpenAI disse que estava encerrando seu aplicativo Sora.

Em fevereiro, o diretor irlandês Ruair Robinson criou um clipe incrivelmente realista mostrando Brad Pitt lutando contra Tom Cruise em um telhado usando uma frase de duas frases.

O clipe amplamente divulgado, que gerou alarme em Hollywood, foi gerado com o Seedance 2.0, uma ferramenta de geração de vídeo de IA de propriedade da empresa de tecnologia chinesa ByteDance.

Robinson também criou outros vídeos mostrando Pitt lutando contra um “ninja zumbi” empunhando uma espada e outro mostrando-o se unindo a Cruise para lutar contra um robô.

Charles Rivkin, presidente e executivo-chefe da Motion Picture Association, apelou à ByteDance para “cessar imediatamente sua atividade infratora”, acusando-a de desrespeitar a lei de direitos autorais que protege os criadores e sustenta milhões de empregos.

O YouTube disse que está trabalhando com agências de talentos líderes para refinar como a detecção de semelhanças pode proteger os artistas.

A gigante do vídeo está “fazendo a coisa certa ao fornecer essas ferramentas sem nenhum custo para os talentos, para que eles possam proteger seus bens imóveis”, disse Jason Newman, da empresa de gestão e produção Untitled Entertainment, ao The Hollywood Reporter.

“O seu património é o seu rosto. O seu património é o seu corpo. O seu património é quem eles são, o que fazem, como o dizem.”

A expansão da ferramenta de detecção segue reclamações de americanos importantes sobre o complicado processo do YouTube para sinalizar e remover deepfakes da plataforma – especialmente porque a IA acelera a criação de conteúdo fabricado.

“Para celebridades, executivos e outros indivíduos de alto perfil, os riscos são especialmente altos, pois deepfakes podem ser usados ​​para espalhar desinformação, manipular mercados, prejudicar reputações ou sugerir falsamente endosso. A detecção robusta não é mais opcional”, disse Yamin.

“Os sistemas de detecção devem ser altamente precisos, atualizados continuamente e combinados com políticas claras e processos de remoção rápidos para serem eficazes.

“Isso não eliminará totalmente os deepfakes, mas pode reduzir significativamente seu alcance e impacto, tornando mais difícil que o conteúdo manipulado passe despercebido ou incontestado”, acrescentou.

Publicado em Dawn, 25 de abril de 2026

Share

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *