El nuevo código de IA de la UE enciende las alarmas: Artistas y eurodiputados ven riesgos graves

El nuevo código de IA de la UE enciende las alarmas: Artistas y eurodiputados ven riesgos graves

Evox News
Por
10 min de lectura

Fuerte Oposición al Borrador del Código de Prácticas de IA de la UE por Parte de Creativos y Legisladores

Una amplia gama de creadores, artistas y titulares de derechos de autor en la Unión Europea, junto con eurodiputados y especialistas, han manifestado su profunda inquietud respecto a la versión más reciente del proyecto de Código de Buenas Prácticas sobre Inteligencia Artificial (IA) que está elaborando la Comisión Europea.

«Resulta inaceptable», declara una coalición que agrupa a autores y artistas en un comunicado conjunto. Critican que la tercera propuesta del Código de Prácticas asociado a la Ley de IA de la UE «debilita los propósitos de la propia Ley de IA» y «desoye la voluntad de los legisladores europeos».

La agrupación recuerda que la Ley de IA busca «proporcionar a autores, intérpretes y otros titulares de derechos las herramientas para ejercer y defender sus derechos», requiriendo a los desarrolladores de IA adoptar medidas para el cumplimiento de la normativa europea de derechos de autor, además de «suministrar un resumen suficientemente detallado del contenido empleado en el entrenamiento».

No obstante, argumentan que el borrador actual representa un retroceso en ese objetivo, generando inseguridad jurídica.

«Lejos de ofrecer un marco robusto para el cumplimiento, establece un umbral tan bajo que no brinda asistencia real a los creadores y titulares de derechos para ejercer o hacer valer sus prerrogativas», sostienen.

Today, a broad coalition of authors, performers and other rightsholders organisations active across the EU’s cultural and creative sectors, including ECSA, say #NO to the GPAI Code of Practice, as drafted by the AI Office.

➡️ Joint statement: bit.ly/4hS1HL0

[image or embed]

— European Composer and Songwriter Alliance (ECSA) (@ecsa.bsky.social) 28 de marzo de 2025, 9:41

Además, consideran que «tampoco aseguraría que los proveedores» de IA cumplan ni con la legislación de la UE sobre copyright ni con la Ley de IA.

“Hemos participado de forma constructiva en el proceso de redacción y hemos aportado comentarios sustanciales a los borradores anteriores del Código de Prácticas, destacando las graves deficiencias que afectan a todos los sectores creativos. Sin embargo, quienes lo redactaron han ignorado o desestimado en gran medida dichos comentarios”, lamentan.

Dado que «no cumple el requisito de adecuación establecido», la propuesta «no debería ser aprobada sin mejoras sustanciales», añaden.

Entre los firmantes se encuentran entidades como la Federación Internacional de Periodistas (IFJ), Eurocinema, European Visual Artists, European Composer and Songwriter Alliance y CEPI European Audiovisual Production.

Inquietud entre Eurodiputados y Expertos

Paralelamente, los eurodiputados responsables de la redacción de la ley de inteligencia artificial de la UE y diversos especialistas también han expresado su disconformidad con la versión más reciente del mencionado código de conducta sobre IA.

Este domingo concluye el periodo para que las organizaciones civiles envíen sus observaciones a la Comisión Europea. Numerosas entidades han alertado que la tercera versión del documento reduce las exigencias para los modelos fundacionales clasificados como de alto riesgo debido a su gran capacidad de cómputo, categoría en la que, según los expertos, podrían incluirse modelos como ChatGPT, de OpenAI; o Gemini, de Google.

Argumentan, en esencia, que las modificaciones introducidas por la Oficina de Inteligencia Artificial de la UE contravienen el espíritu de la ley, vigente desde el año pasado, que permite o prohíbe el uso de la inteligencia artificial según el peligro que suponga para las personas.

«Nosotros, los representantes de los colegisladores de la ley de IA, nos dirigimos a usted con honda preocupación por el código de conducta, con el que la evaluación y mitigación de diversos riesgos para los derechos fundamentales y la democracia ahora es, súbitamente, totalmente voluntaria para los proveedores de modelos de IA generativa con riesgo sistémico», señalan los eurodiputados en una misiva dirigida a la vicepresidenta de Soberanía Digital de la Comisión, Henna Virkkunen.

La carta, a la que Evox News tuvo acceso, está firmada por siete eurodiputados en funciones y otros que participaron en la redacción de la ley, representando al Partido Popular Europeo, socialdemócratas, liberales y verdes.

También la suscribe Carme Artigas, copresidenta del Consejo Asesor de Inteligencia Artificial de Naciones Unidas y antigua secretaria de Estado de Digitalización del Gobierno español, quien contribuyó a pactar la ley de IA durante la presidencia rotatoria de la UE que España celebró en el último semestre de 2023.

La reciente versión del código de conducta exige a los modelos de IA generativa evaluar y mitigar riesgos existenciales que puedan provocar, como la posibilidad de que los humanos pierdan el control sobre estos sistemas, o accidentes químicos, biológicos y nucleares.

Pero les otorga la posibilidad de elegir si evaluar o no los riesgos que puedan ocasionar a los derechos fundamentales, al replicar patrones que fomenten la discriminación, que vayan en contra de la libertad de expresión, de la privacidad o que promuevan contenidos de abuso sexual infantil.

«Si los proveedores de los modelos de IA generativa con más impacto adoptaran posturas políticas más extremas, implementaran políticas que minaran la fiabilidad de los modelos, facilitaran la interferencia extranjera o la manipulación electoral, contribuyeran a la discriminación, restringieran la libertad de información o difundieran contenido ilegal, las consecuencias podrían perturbar profundamente la economía y la democracia europeas», advierte la carta.

DOT Europe, la patronal de las grandes tecnológicas, que representa entre otros a OpenAI, Google, Meta, X o Airbnb, considera que, si bien el tercer borrador del documento «presenta algunas mejoras, ciertas disposiciones aún exceden los requisitos de la Ley de IA».

«Por ejemplo, el requisito de realizar evaluaciones de riesgos obligatorias por parte de terceros antes y después del despliegue, aunque no es una obligación en la propia Ley de IA, lamentablemente sigue apareciendo en el nuevo borrador», declaró a Evox News Elias Papadopoulos, director de Políticas de la organización.

Bruselas tiene como objetivo finalizar el código de conducta en mayo, para su entrada en vigor el próximo 2 de agosto. Aunque de carácter voluntario, el documento está diseñado para ayudar a los desarrolladores de modelos de IA generativa a cumplir con las exigencias de la ley.

Insights de Evox News: Cómo la Disputa por el Código de IA de la UE Puede Impactar tu Negocio

La controversia en torno al borrador del Código de Prácticas de IA de la UE genera un entorno de incertidumbre regulatoria que puede afectar las decisiones de inversión y desarrollo de las empresas que operan o planean operar en el mercado europeo. Desde una perspectiva económica, la falta de claridad sobre los requisitos de cumplimiento, especialmente en lo referente a derechos de autor y evaluación de riesgos para derechos fundamentales, podría ralentizar la adopción de tecnologías de IA generativa o incrementar los costos asociados a la mitigación de riesgos legales y reputacionales. Para las industrias creativas, un código débil podría traducirse en una merma de ingresos si no se protegen adecuadamente sus contenidos.

En términos de ventaja competitiva, las empresas que anticipen una regulación más estricta y desarrollen modelos de IA robustos en cuanto a ética y cumplimiento normativo podrían posicionarse favorablemente a largo plazo, generando mayor confianza en clientes y reguladores. Por el contrario, un código laxo podría favorecer a corto plazo a actores con menor aversión al riesgo, pero expone a toda la industria a posibles crisis de confianza o a una regulación reactiva más severa en el futuro.

Desde el punto de vista de la innovación, este debate subraya la necesidad crítica de equilibrar el avance tecnológico con la responsabilidad social y legal. Las empresas que integren proactivamente consideraciones éticas y de derechos fundamentales en sus ciclos de desarrollo de IA no solo cumplirán con las expectativas regulatorias y sociales, sino que también podrán diferenciar sus productos y servicios basándose en la confiabilidad y la seguridad, convirtiendo la «IA responsable» en un pilar de su estrategia de innovación

Compartir este artículo