Uma ferramenta do YouTube que usa a biometria dos criadores para ajudá-los a remover vídeos gerados por IA que exploram sua imagem também permite que o Google treine seus modelos de IA com esses dados confidenciais, disseram especialistas à CNBC.
O YouTube está expandindo sua “detecção de semelhança”, uma ferramenta que a empresa lançou em outubro que sinaliza quando o rosto de um criador é usado sem sua permissão em vídeos deepfake.
O YouTube disse à CNBC que o Google nunca usou dados biométricos dos criadores para treinar modelos de IA e que está revisando a linguagem usada no formulário de inscrição da ferramenta para evitar confusão. No entanto, a plataforma declarou que não alterará a sua política subjacente.
A discrepância destaca uma divisão mais ampla dentro da Alphabet, na qual o Google expande agressivamente os seus esforços de IA enquanto o YouTube trabalha para manter a confiança dos criadores e detentores de direitos que dependem da plataforma para os seus negócios.
Leia mais:
Runway lança novo modelo de vídeo de IA que supera Google e OpenAI
A ferramenta está sendo expandida para milhões de criadores no Programa de Parcerias do YouTube à medida que o conteúdo manipulado por IA se torna mais prevalente nas redes sociais. O recurso verifica vídeos enviados ao YouTube para identificar onde o rosto do criador pode ter sido alterado ou gerado por inteligência artificial.
Os criadores podem então decidir se desejam solicitar a remoção do vídeo. Porém, para usar a ferramenta, o YouTube exige que eles enviem uma identidade oficial e um vídeo biométrico do rosto. A biometria consiste em medir características físicas para verificar a identidade de uma pessoa.
Especialistas afirmam que, ao vincular a ferramenta à Política de Privacidade do Google, o YouTube abriu a porta para o uso indevido da biometria dos criadores no futuro. A política afirma que o conteúdo público, incluindo informações biométricas, pode ser usado “para ajudar a treinar os modelos de IA do Google e criar produtos e recursos”.
“A detecção de similaridade é um recurso totalmente opcional, mas requer uma referência visual para funcionar”, disse o porta-voz do YouTube, Jack Malon, em comunicado à CNBC. “Nossa abordagem a esses dados não mudou. Como afirma nossa Central de Ajuda desde o lançamento, os dados fornecidos à Ferramenta de Detecção de Similaridade são usados apenas para fins de verificação de identidade e para potencializar esse recurso de segurança específico.”
O YouTube disse à CNBC que está “considerando maneiras de tornar a linguagem do produto mais clara”. A empresa não informou quais alterações específicas serão feitas no texto nem quando elas entrarão em vigor.
Os especialistas permanecem cautelosos, dizendo que levantaram preocupações sobre a política ao YouTube meses atrás.
“À medida que o Google corre para competir em IA e os dados de treinamento se tornam ouro estratégico, os criadores precisam pensar cuidadosamente se desejam que seu rosto seja controlado por uma plataforma em vez de propriedade deles”, disse Dan Neely, CEO da Vermillio, uma empresa que ajuda indivíduos a proteger sua imagem contra uso indevido e facilita o licenciamento seguro de conteúdo autorizado. “Sua imagem será um dos ativos mais valiosos na era da IA e, uma vez que você abra mão desse controle, talvez nunca mais a recupere.”
Vermillio e Loti são empresas terceirizadas que trabalham com criadores, celebridades e empresas de mídia para monitorar e fazer cumprir os direitos de imagem na internet. Com os avanços na geração de vídeos por IA, a utilidade destas empresas aumentou para os detentores de propriedade intelectual.
O CEO da Loti, Luke Arrigoni, disse que os riscos da atual política biométrica do YouTube “são enormes”.
“Como a versão atual permite que alguém vincule esse nome à biometria facial real, eles poderiam criar algo mais sintético que se parecesse com aquela pessoa”, disse Arrigoni.
Tanto Neely quanto Arrigoni disseram que atualmente não recomendariam que nenhum de seus clientes se inscrevesse para detecção de similaridade no YouTube.
Amjad Hanif, chefe de produtos para criadores do YouTube, disse que a plataforma construiu sua ferramenta de detecção para operar “na escala do YouTube”, onde centenas de horas de novas imagens são postadas a cada minuto. A ferramenta deve ser disponibilizada para os mais de 3 milhões de criadores do Programa de Parcerias do YouTube até o final de janeiro, segundo Hanif.
“Nós nos saímos bem quando os criadores se saem bem”, disse Hanif à CNBC. “Estamos aqui como guardiões e apoiadores do ecossistema de criadores e é por isso que estamos investindo em ferramentas para apoiá-los nessa jornada.”
O lançamento ocorre no momento em que as ferramentas de vídeo geradas por IA melhoram rapidamente em qualidade e acessibilidade, levantando novas preocupações para os criadores cuja imagem e voz são fundamentais para os seus negócios.
O criador do YouTube, Mikhail Varshavski, um médico conhecido como “Doutor Mike” na plataforma de vídeo, disse que usa a ferramenta de detecção de similaridade do serviço para revisar dezenas de vídeos manipulados por IA por semana. Varshavski está no YouTube há quase uma década e acumulou mais de 14 milhões de assinantes na plataforma. Ele faz vídeos reagindo a dramas médicos da TV, respondendo perguntas sobre modas em saúde e desmascarando mitos. Ele confia em sua credibilidade como médico certificado para informar seus telespectadores.
Os rápidos avanços na IA tornaram mais fácil para os malfeitores copiarem seu rosto e voz em vídeos deepfake que poderiam dar aos espectadores conselhos médicos enganosos, disse Varshavski. Ele se deparou pela primeira vez com um deepfake no TikTok, onde um sósia gerado por IA estava promovendo um suplemento “milagroso” do qual Varshavski nunca tinha ouvido falar.
“Isso obviamente me assustou, porque passei mais de uma década investindo na conquista da confiança do público, dizendo a verdade e ajudando-o a tomar boas decisões sobre saúde”, disse ele. “Ver alguém usar minha imagem para induzir alguém a comprar algo de que não precisa ou que poderia prejudicá-lo assustou tudo em mim naquela situação.”
Ferramentas de geração de vídeo de IA, como Veo 3 do Google e Sora da OpenAI, tornaram significativamente mais fácil a criação de deepfakes de celebridades e criadores como Varshavski. Isso ocorre porque suas imagens costumam aparecer nos conjuntos de dados usados pelas empresas de tecnologia para treinar seus modelos de IA.
O Veo 3 é treinado em um subconjunto dos mais de 20 bilhões de vídeos enviados ao YouTube, informou a CNBC em julho. Isto poderia incluir várias centenas de horas de vídeo de Varshavski.
Deepfakes “tornaram-se mais difundidos e proliferativos”, disse Varshavski. “Já vi canais inteiros criados usando esses tipos de deepfakes de IA como arma, seja para enganar as pessoas para que comprem um produto ou estritamente para intimidar alguém.”
Atualmente, os criadores não têm como monetizar o uso não autorizado de suas imagens, ao contrário das opções de participação nos lucros disponíveis através do sistema Content ID do YouTube para material protegido por direitos autorais, que normalmente é usado por empresas que possuem grandes catálogos de direitos autorais.
Hanif, do YouTube, disse que a empresa está explorando como um modelo semelhante poderia funcionar para o uso de imagens geradas por IA no futuro. No início deste ano, o YouTube deu aos criadores a opção de permitir que empresas terceirizadas de IA treinassem em seus vídeos. Hanif disse que milhões de criadores aderiram a este programa, sem promessa de compensação.
Hanif disse que sua equipe ainda está trabalhando para melhorar a precisão do produto, mas os testes iniciais foram bem-sucedidos, embora ele não tenha fornecido métricas de precisão.
Quanto à atividade de remoção na plataforma, Hanif disse que ela permanece baixa, principalmente porque muitos criadores optam por não excluir os vídeos sinalizados.
“Eles ficam felizes em saber que [o vídeo] está lá, mas eles realmente não acham que mereça ser removido”, disse Hanif. “De longe, a ação mais comum é dizer: ‘Eu olhei para ele, mas estou bem com isso'”.
Agentes e defensores disseram à CNBC que os baixos números de remoções são mais provavelmente devidos à confusão e falta de conhecimento do que ao conforto com o conteúdo de IA.
Canal 562 ClaroTV+ | Canal 562 Céu | Canal 592 ao vivo | Canal 187 Olá | Operadores regionais
TV SINAL ABERTO: antena parabólica canal 562
ONLINE: www.timesbrasil.com.br | YouTube
Canais RÁPIDOS: Samsung TV Plus, canais LG, canais TCL, Pluto TV, Roku, Soul TV, Zapping | Novos fluxos
Este conteúdo foi fornecido por CNBC Internacional e a responsabilidade exclusiva pela tradução para o português é do Times Brasil.