YouTube está tomando nuevas medidas para proteger a artistas y youtubers de los deepfakes de audio y vídeo creados con inteligencia artificial. La plataforma de vídeos de Google planea lanzar dos herramientas que ayudarán a detectar contenidos falsos que imiten la voz y la apariencia física de los creadores de contenidos y personalidades en cuestión.
Según explicaron desde YouTube, una de estas se dedicará exclusivamente a detectar voces de cantantes simuladas sintéticamente. La misma ya se ha desarrollado y se comenzará a probar a comienzos del próximo año. La compañía no ha especificado cómo funciona, aunque sí ha mencionado que se integra en Content ID, su utilidad de gestión de derechos de autor.
Una vez que se active, la herramienta se encargará de detectar automáticamente cuando se publiquen contenidos en YouTube que simulen el canto de los partners que publican su música en el sitio. En el caso de que el material se haya realizado sin autorización o para fines difamatorios, los artistas podrán solicitar su eliminación.
La otra función sobre la que YouTube actualmente trabaja, también vinculada con Content ID, busca poner un freno a los deepfakes con los rostros de actores, youtubers, deportistas, músicos y todo tipo de personalidades, permitiendo detectarlos de forma automática para tomar las acciones pertinentes. Esta opción aún se encuentra en desarrollo y no se sabe cuándo podría lanzarse en la plataforma de vídeos, aunque todo hace pensar que no llegará antes de 2025.
YouTube amplía su estrategia contra los deepfakes y las simulaciones con IA
Esta no es la primera vez que YouTube anuncia cambios o nuevas herramientas para combatir la proliferación de deepfakes y simulaciones creadas con IA. En noviembre de 2023, la empresa informó que comenzaría a aceptar pedidos para eliminar contenidos creados con IA que "simularan a individuos identificables". Asimismo, incorporó una herramienta para que sellos discográficos y agencias de representación de artistas pudieran pedir que se borren canciones creadas con inteligencia artificial.
En julio pasado, en tanto, YouTube modificó sus directrices de privacidad para permitir que usuarios denuncien vídeos realistas creados con IA que incluyan deepfakes. Estas medidas forman parte de una estrategia cada vez más amplia para abordar la rápida evolución de la IA generativa. En especial, considerando que la viralización de contenidos falsificados se ha incrementado drásticamente en los últimos años debido a que es cada vez más fácil crearlos.
Además de brindar mayor protección contra los deepfakes, YouTube ha revalidado su intención de impedir que empresas de IA entrenen sus modelos de lenguaje con los vídeos que suben los creadores de contenido. Este tema lleva algún tiempo siendo motivo de controversia. No olvidemos que OpenAI ha quedado en el ojo de la tormenta por supuestamente utilizar publicaciones del sitio para entrenar a Sora. Mientras que en las últimas semanas se desató una nueva polémica al respecto por aparentes conductas similares de NVIDIA, Anthropic y hasta de Apple.
Desde YouTube ya advirtieron que scrapear vídeos para adiestrar modelos de IA es una violación a sus términos de servicio. Ahora, la compañía promete refinar sus sistemas para facilitar la detección de estas actividades y hasta bloquear a quienes lo concretan.