YouTube estende piloto de detecção de ‘semelhança de IA’ para políticos e jornalistas na luta contra deepfakes não autorizados

O YouTube está lançando uma ferramenta expandida de “detecção de similaridade” para proteger funcionários do governo, jornalistas e candidatos políticos contra imitações não autorizadas de IA, incluindo deepfakes. Originalmente projetado para criadores do Programa de Parcerias do YouTube, o recurso verifica conteúdo gerado por IA que imita a aparência de uma pessoa, permitindo que usuários verificados revisem e solicitem remoção se violar as políticas de privacidade. O programa piloto prioriza a liberdade de expressão, exceto paródia e sátira, e não exige a remoção automática. A verificação de identidade é obrigatória e os dados coletados não serão usados ​​para treinar os modelos de IA do Google. O YouTube também apoia legislações como a Lei NO FAKES, à medida que as preocupações sobre o uso indevido da inteligência artificial continuam a crescer. Grok Imagine nova atualização de recurso: xAI de Elon Musk lança geração de vídeo de 10 segundos; Ele vem com qualidade de áudio e vídeo aprimorada.

Detecção de ‘AI Likeness’ no YouTube estendida para jornalistas e políticos

Avaliação:5

Verdadeiramente Classificação 5 – Confiável | Em uma escala de confiança de 0 a 5, este artigo foi classificado como 5 em Ultimamente. Foi confirmado através de fontes oficiais (News From Google). As informações são cuidadosamente cruzadas e verificadas. Você pode compartilhar este artigo com segurança com seus amigos e familiares, sabendo que ele é confiável e confiável.

(SocialLY traz para você todas as últimas notícias, verificação de fatos e informações do mundo das mídias sociais, incluindo Twitter (X), Instagram e Youtube. A postagem acima contém mídia incorporada disponível publicamente, diretamente da conta de mídia social do usuário, e as opiniões que aparecem na postagem na mídia social não refletem as opiniões de LatestLY.)



Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui