Este martes YouTube anunció una serie de nuevas reglas en torno al uso de la inteligencia artificial en la plataforma.
En una publicación de blog escrita por Jennifer Flannery O’Connor y Emily Moxley, vicepresidentas de gestión de productos de YouTube, se describen una serie de actualizaciones de políticas relacionadas con la inteligencia artificial y que entrarán en vigor el próximo año.
«La inteligencia artificial generativa tiene el potencial de desbloquear la creatividad en YouTube y transformar la experiencia de los espectadores y creadores en nuestra plataforma», lee el blog. «Pero igualmente importante es que estas oportunidades deben equilibrarse con nuestra responsabilidad de proteger a la comunidad de YouTube».
Entre las políticas más llamativas está una que estipula que los creadores de contenido tendrán que revelar si han utilizado inteligencia artificial para crear videos «alterados o sintéticos» que luzcan realistas. Por ejemplo, podría ser un video generado por IA que presente un evento que nunca sucedió, o contenido que muestre a alguien diciendo o haciendo algo que en realidad no hizo.
«Esto es especialmente importante en los casos en que el contenido trata temas delicados; como elecciones, conflictos en curso y crisis de salud pública, o funcionarios públicos», escribieron O’Connor y Moxley.
Los creadores de contenido que opten sistemáticamente por no revelar esta información estarán sujetos a diversas sanciones; entre ellas la eliminación de contenido, la suspensión del Programa de socios de YouTube, y otras.
La compañía también dijo que etiquetará contenidos con inteligencia artificial, incluidos los destacados en el reproductor de videos de la plataforma para temas delicados.
Fuente: Bussines Insider