YouTube revela herramienta para etiquetar ‘contenido alterado o sintético’.

image

El pasado noviembre, YouTube anunció que requeriría que todas las personas que subieran videos revelaran si involucraban «contenido alterado o sintético que sea realista», incluido el uso de herramientas de inteligencia artificial generativa. Ahora, YouTube ha revelado el proceso mediante el cual se realizarán estas divulgaciones.

Se trata de un nuevo paso en el panel de control del estudio de creadores de la plataforma, que pregunta si un video «hace que una persona real parezca decir o hacer algo que no dijo o hizo; altera imágenes de un evento o lugar real; genera una escena que parece real pero que no ocurrió realmente». Cualquiera que responda «Sí» verá aparecer una etiqueta de «Contenido Alterado o Sintético» en su video cuando se reproduzca.

En su publicación de blog, YouTube señaló que la divulgación no es necesaria cuando se ha utilizado inteligencia artificial con fines de productividad («como la generación de guiones, ideas de contenido o subtítulos automáticos»). Mientras tanto, «contenido claramente irreal, como animaciones o alguien montando un unicornio en un mundo fantástico», también se pasa por alto.

Además de todo esto, YouTube dijo que está «trabajando continuamente en un proceso de privacidad actualizado para que las personas soliciten la eliminación de contenido generado por inteligencia artificial u otro contenido sintético o alterado que simule a una persona identificable, incluida su cara o voz».