La Comisión Europea pide que todo contenido creado con IA sea claramente etiquetado

image

Según la Vicepresidenta de la Comisión Europea para Valores y Transparencia, Věra Jourová, el contenido creado por inteligencia artificial «debe ser reconocido y claramente etiquetado». Jourová está solicitando una mayor represión en los medios de comunicación relacionados con la IA.

Jourová expresó esta demanda de etiquetado del contenido de IA durante una reunión con los firmantes del controvertido Código de Práctica de la UE sobre Desinformación. Diseñado supuestamente para combatir la desinformación en Internet, el Código de Práctica, que abarca «44 compromisos y 128 medidas específicas», fue finalizado en junio de 2022 por las 44 entidades firmantes presentes.

Entre los últimos se encuentran Adobe, Clubhouse, Twitch, TikTok, Google, Meta, Kinzen y una serie de actores tecnológicos comparativamente menos conocidos. Cada una de las empresas y organizaciones que agregaron su nombre al Código de Práctica seleccionó y aceptó varios «compromisos» (cuyos aspectos esenciales se describen en el extenso texto legal) supuestamente diseñados para prevenir la propagación de desinformación.

Y aunque el Código de Práctica incluye un único compromiso relacionado con la inteligencia artificial, no hace falta decir que el alcance y la prevalencia de esta tecnología se han expandido considerablemente durante el último año. En consecuencia, Jourová reveló su creencia de que el Código de Práctica «también debería comenzar a abordar nuevas amenazas, como el mal uso de la IA generativa».

En línea con esta observación, Jourová enfatizó que la «tarea principal» de los firmantes incluye «abordar los riesgos de la IA». En lo que respecta a la IA generativa «como ChatGPT», cuya empresa matriz podría salir por completo de la UE mientras los miembros del Parlamento continúan moldeando la extensa «Ley de IA», la funcionaria gubernamental comunicó que «estos servicios no pueden ser utilizados por actores malintencionados para generar desinformación» y afirmó que «dicho contenido debe ser reconocido y claramente etiquetado para los usuarios».

«Los generadores de imágenes pueden crear imágenes que parecen auténticas de eventos que nunca ocurrieron», dijo Jourová durante un breve discurso. «El software de generación de voz puede imitar la voz de una persona basándose en una muestra de unos pocos segundos. Las nuevas tecnologías plantean nuevos desafíos para la lucha contra la desinformación».

«Los firmantes que tienen servicios con el potencial de difundir desinformación generada por IA deberían implementar tecnología para reconocer dicho contenido y etiquetarlo claramente para los usuarios», continuó la funcionaria de 58 años, quien también mencionó la próxima implementación de la Ley de Servicios Digitales. «He dicho muchas veces que nuestra tarea principal es proteger la libertad de expresión. Pero cuando se trata de la producción de IA, no veo ningún derecho de las máquinas a tener libertad de expresión».

Aunque no se encuentren en la categoría de «desinformación», todo tipo de música (incluyendo lanzamientos autorizados y no autorizados) se vería afectada por un requisito regulatorio que obligue a identificar los medios generados totalmente o en parte por IA.

A pesar del alcance relativamente limitado del Código de Práctica sobre Desinformación, el tiempo dirá si esta posible regla se incorpora a la mencionada Ley de IA, cuya votación preliminar está programada para más adelante en este mes. Mientras tanto, a medida que la legislación continúa tomando forma, varios artistas y profesionales están expresando sus preocupaciones sobre los posibles peligros de la inteligencia artificial, cuyos efectos específicos en la música han llevado a algunos expertos financieros a rebajar la calificación de las acciones de Warner Music Group.