El Gobierno español impulsa ley para identificar contenido de IA y sancionar su uso indebido
El Ejecutivo planea establecer por ley la obligación de señalar los contenidos creados mediante inteligencia artificial (IA). Además, se implementará un sistema de penalizaciones para aquellos que empleen estas tecnologías con fines nocivos, con sanciones económicas que podrían ascender a 35 millones de euros o el 7 por ciento de los ingresos anuales de una compañía.
Estos puntos se incluirán en la futura Ley para el buen uso y la gobernanza de la inteligencia artificial. El Consejo de Ministros aprobó este martes el anteproyecto de esta normativa, con la que el Gobierno busca promover un despliegue “ético, inclusivo y beneficioso” de la IA, garantizando que los ciudadanos puedan distinguir claramente entre contenidos auténticos y los generados digitalmente.
El ministro para la Transformación Digital y de la Función Pública, Óscar López, destacó la importancia de esta nueva legislación. Se refirió a la inteligencia artificial como una herramienta de gran potencial, capaz de impulsar el crecimiento económico, contribuir a la lucha contra enfermedades y al desarrollo de medicamentos, pero también como un medio para diseminar desinformación, propagar el odio y amenazar la democracia.
Durante la conferencia de prensa posterior al Consejo de Ministros, Óscar López también presentó las conclusiones de un informe sobre la adopción de la IA en España. Resaltó que, según el estudio, una correcta implementación de esta tecnología podría incrementar el Producto Interior Bruto (PIB) nacional hasta en un 8 por ciento —equivalente a más de 100.000 millones de euros— durante la próxima década.
El ministro situó el anteproyecto dentro del marco de protección europeo de derechos digitales, que se suma al anteproyecto de ley de servicios digitales y medios de comunicación. Informó que la normativa adaptará la legislación española al reglamento europeo de Inteligencia Artificial, ya vigente.
Prohibidas las técnicas subliminales con IA
El anteproyecto, en línea con la regulación europea, detalla las prácticas de IA que estarán prohibidas. Entre ellas se encuentra el uso de métodos subliminales (como estímulos visuales o auditivos no perceptibles conscientemente) para influir en las decisiones de las personas sin su autorización. Un ejemplo sería un ‘chatbot’ que detecta a usuarios con ludopatía y los persuade subliminalmente para acceder a una plataforma de apuestas online.
También se prohibirá la explotación de vulnerabilidades asociadas a la edad, discapacidad o situación socioeconómica para modificar sustancialmente la conducta de forma perjudicial. El ministro mencionó el caso de un juguete infantil con IA que incite a los niños a realizar desafíos que puedan causarles lesiones graves.
La nueva ley veta igualmente la categorización biométrica de individuos por criterios raciales, orientación política, religiosa o sexual. Se prohíbe la puntuación de personas o colectivos basada en comportamientos sociales o características personales como método de selección para negarles acceso a subvenciones o créditos, o para evaluar el riesgo de comisión de delitos basándose en datos personales como historial familiar, nivel educativo o lugar de residencia.
Las multas por implementar estos sistemas prohibidos variarán entre 7,5 y 35 millones de euros, o entre el 2% y el 7% de la facturación global de la empresa infractora. Para las pymes, estas cantidades podrían ser menores.
Contra la ‘ultrasuplantación’ o ‘deepfake’
El ministro detalló en la rueda de prensa las entidades supervisoras: la Agencia Española de Protección de Datos (para sistemas biométricos y gestión fronteriza); el Consejo General del Poder Judicial (IA en el ámbito judicial); la Junta Electoral Central (IA en procesos democráticos); y la Agencia Española de Supervisión de la Inteligencia Artificial para los demás casos.
La ley, siguiendo el reglamento europeo, define ‘sistemas de alto riesgo’. Estos incluyen componentes de seguridad en productos industriales, juguetes, equipos radioeléctricos o sanitarios; sistemas para la garantía de derechos, migración, asilo y control fronterizo; y sistemas utilizados en la administración de justicia y procesos democráticos.
Estos sistemas deberán cumplir requisitos específicos. El incumplimiento acarreará sanciones según la gravedad, oscilando entre 500.000 y 7,5 millones de euros, o hasta el 2% y 3% del volumen de negocio mundial del ejercicio previo de la compañía responsable.
Se considerará infracción grave no etiquetar adecuadamente cualquier imagen, audio o vídeo generado o alterado con IA que represente a personas (reales o ficticias) diciendo o haciendo algo que no ocurrió, o en lugares donde no estuvieron. Esto se conoce como «ultrasuplantación» o ‘deepfake’.
La aprobación de este anteproyecto por el Consejo de Ministros sucede días después de que el PP difundiera en redes sociales dos vídeos generados por inteligencia artificial. El primero, «La isla de las corrupciones», fue retirado tras quejas de la República Dominicana; utilizaba imágenes del país caribeño para criticar al PSOE por supuestos casos de corrupción.
El segundo vídeo, titulado por el PP «La manifestación que no verás hoy» y publicado el 8 de marzo (Día de la Mujer), mostraba imágenes virtuales de varios líderes o exlíderes de izquierda y de la esposa del presidente del Gobierno. Incluía una escena virtual de Pedro Sánchez junto al exministro José Luis Ábalos con un supuesto «catálogo» de mujeres.
Insights de Evox News: Cómo la nueva ley de IA puede impactar tu negocio
La inminente Ley para el buen uso y la gobernanza de la inteligencia artificial en España presenta un nuevo escenario regulatorio con implicaciones directas para las empresas. Desde una perspectiva empresarial, esta normativa exige una adaptación proactiva para mitigar riesgos y capitalizar oportunidades.
Impacto Económico y de Cumplimiento
Las empresas que desarrollen o utilicen sistemas de IA, especialmente aquellos catalogados como de ‘alto riesgo’ o que generen contenido sintético, enfrentarán nuevos costes de cumplimiento. Esto incluye la implementación de mecanismos para etiquetar contenido generado por IA, realizar evaluaciones de riesgo y garantizar la transparencia en el uso de datos. Las sanciones, que pueden alcanzar hasta 35 millones de euros o un porcentaje significativo de la facturación global, representan un riesgo financiero considerable. Las pymes, aunque con posibles sanciones menores, también deberán invertir en adecuación.
Ventaja Competitiva y Reputación
Adoptar prácticas de IA éticas y transparentes, alineadas con la nueva ley, puede convertirse en una ventaja competitiva. Las empresas que demuestren responsabilidad en el uso de la IA generarán mayor confianza entre clientes, inversores y socios. El cumplimiento normativo no solo evitará multas, sino que también fortalecerá la reputación de la marca en un mercado cada vez más consciente de los riesgos asociados a la IA. Por el contrario, el incumplimiento o el uso de prácticas prohibidas (como la manipulación subliminal o la creación de ‘deepfakes’ sin etiquetar) puede derivar en crisis reputacionales severas.
Dirección de la Innovación
La regulación podría reorientar la innovación en IA. Si bien podría imponer limitaciones en áreas consideradas de alto riesgo o éticamente sensibles, también incentivará el desarrollo de soluciones de IA más seguras, transparentes y auditables. Surgirán oportunidades en el desarrollo de tecnologías para la detección de ‘deepfakes’, sistemas de etiquetado automático, herramientas de auditoría de algoritmos y plataformas de IA que prioricen la privacidad y la equidad. Las empresas que inviertan en esta dirección podrían posicionarse como líderes en el emergente campo de la IA confiable.
En resumen, la nueva ley española de IA obliga a las empresas a revisar sus estrategias y operaciones relacionadas con esta tecnología. La adaptación no es solo una cuestión de cumplimiento legal, sino una decisión estratégica que afectará la viabilidad económica, la posición competitiva y la capacidad de innovación a largo plazo.