Descubre los Secretos de la Ley de IA: Lo Que Europa No Quiere Que Sepas

Descubre los Secretos de la Ley de IA: Lo Que Europa No Quiere Que Sepas

Evox News
Por
10 min de lectura

EuroEFE Explica: La Ley de Inteligencia Artificial

Por Lucía Leal

Madrid (EuroEFE).- La normativa pionera a nivel mundial sobre inteligencia artificial es ya una realidad. Con su implementación, los países de la Unión Europea (UE) comenzarán en los próximos meses a restringir ciertos sistemas, basándose en el nivel de riesgo que estos representen para los ciudadanos.

A continuación, detallamos lo que esto implica para usted:

¿Cuál es su origen?

La creciente inquietud por el veloz avance de la inteligencia artificial (IA) motivó a la Comisión Europea a presentar esta ley en abril de 2021. La iniciativa legislativa se alimentó de diversas sugerencias de la ciudadanía recogidas durante la Conferencia sobre el Futuro de Europa, así como del deseo de fortalecer a la industria europea en competencia con China y Estados Unidos.

El proyecto original no contemplaba los sistemas generativos. Sin embargo, la irrupción el año pasado de programas como ChatGPT impulsó a los Veintisiete a incorporarlos en la legislación. Aunque inicialmente Francia, Alemania e Italia mostraron reticencias a regularlos para no limitar el potencial de empresas como la francesa Mistral AI o la alemana Aleph Alpha, finalmente accedieron a hacerlo.

¿Cómo le concierne?

  • Se podrá seguir utilizando sistemas generativos ampliamente conocidos como ChatGPT, de Open AI, o Gemini (anteriormente Bard), de Google. No obstante, estos deberán cumplir con los derechos de autor y mantener la transparencia al producir textos o creaciones artísticas mediante inteligencia artificial.
  • No se permitirá la vigilancia masiva por parte del Gobierno o de empresas privadas, ni tampoco sistemas de puntuación o manipulación social. Las empresas no podrán utilizar la IA para procesos de contratación, despido o evaluación laboral en la mayoría de los casos, ni las universidades para la selección de alumnos, ni los bancos para el análisis de solvencia.
  • Se podrán interponer reclamaciones si se considera que un sistema vulnera los derechos de un individuo. Será ilegal el uso de ‘deepfakes’ engañosos o la interacción con un chatbot sin que se revele la ausencia de una persona real al otro lado.
  • Si ha desarrollado u opera un sistema de inteligencia artificial en su empresa o entidad, puede verificar en este sitio web si está sujeto a las obligaciones establecidas por la nueva ley.

¿En qué se fundamenta?

♦ El documento aprobado por el Parlamento Europeo en marzo clasifica los riesgos asociados a la inteligencia artificial en cuatro niveles:

  • «Riesgo Inaceptable»: Los sistemas que entren en esta categoría quedan prohibidos en la UE por infringir derechos o valores fundamentales de la unión.

Ejemplos: Se prohíben aquellos que utilicen mecanismos de reconocimiento facial, de voz u otros similares en espacios públicos en tiempo real; los destinados a otorgar una puntuación social a los ciudadanos, como los existentes en China; los que empleen técnicas subliminales o manipuladoras; aquellos que puedan causar perjuicio a grupos vulnerables específicos, como personas con discapacidad o menores; o los sistemas de clasificación biométrica que infieran la raza, las inclinaciones políticas o la orientación sexual de un individuo, así como los que detecten sus emociones en el entorno laboral. Esta lista podrá ser actualizada periódicamente.

Excepciones: Las autoridades policiales podrán utilizar cámaras de reconocimiento facial y otros sistemas de vigilancia biométrica en tiempo real, bajo autorización judicial previa, en situaciones de amenazas terroristas inminentes, búsqueda de menores desaparecidos o secuestrados, o persecución de autores de delitos graves. La ley tampoco se aplica, en términos generales, a sistemas con fines de investigación científica, defensa o seguridad nacional.

  • «Alto riesgo» para la seguridad, salud, derechos humanos, democracia o medio ambiente: Los responsables de estos sistemas deberán someterse a una evaluación para acreditar que cumplen con la normativa. Ejemplos:
  1. Sistemas utilizados por las autoridades para la detección de ultrafalsos o ‘deepfakes’ (vídeos manipulados que simulan ser reales y pueden atribuir a una persona declaraciones o acciones falsas).
  2. Aquellos empleados en procesos de selección de personal o admisión universitaria, así como para la promoción o despido de empleados.
  3. Los utilizados por entidades financieras para evaluar la solvencia y la calificación crediticia de los clientes; aquellos que puedan tener influencia en elecciones o votaciones.
  4. Los empleados para el funcionamiento de infraestructuras críticas.
  5. Los utilizados por autoridades policiales, judiciales o migratorias para el análisis de pruebas de delitos y solicitudes de visado o asilo.
  • «Riesgo de transparencia»: Sus responsables deben cumplir con requisitos que eviten el engaño a los consumidores, haciéndoles creer que interactúan con personas o contenidos reales.

Ejemplos: Los propietarios de chatbots o creadores de ‘deepfakes’, quienes deberán informar a los usuarios de su naturaleza (excepto cuando se utilicen para la prevención de delitos); o las empresas que empleen sistemas de IA en el ámbito laboral, que deberán notificarlo a sus empleados y a los sindicatos.

  • «Riesgo mínimo»: Los filtros de spam y otros sistemas que no representen amenazas significativas para las personas solo deberán cumplir con las regulaciones generales de la UE, como la ley de protección de datos o la de derechos de autor.
¿Cómo se llevará a cabo?
  • La UE ha establecido la Oficina Europea de Inteligencia Artificial, responsable de la implementación de la ley. Esta oficina está integrada, entre otros, por expertos en regulación designados por cada Estado miembro. Entre sus funciones se encuentra la de asistir a las empresas en el cumplimiento de las normas antes de su entrada en vigor.
  • Se aplicarán sanciones a quienes incumplan la normativa: Hasta 35 millones de euros o el 7% de la facturación mundial anual de la empresa (si esta cifra es superior).
  • Se creará una base de datos pública que identificará los sistemas considerados de «alto riesgo», a menos que estén relacionados con fuerzas de seguridad pública o migración.
  • Para fomentar la innovación, todos los países miembros deberán establecer al menos un entorno de pruebas controlado o ‘sandbox’. Esto permitirá completar el desarrollo de los sistemas bajo una supervisión regulatoria rigurosa antes de su lanzamiento al mercado, facilitando especialmente el proceso para pymes y empresas emergentes.
  • La ciudadanía podrá presentar reclamaciones relacionadas con los sistemas de IA y recibir explicaciones sobre las decisiones que impacten en sus derechos.

¿Qué sigue a continuación?

Tras la aprobación de los embajadores de los Veintisiete en febrero, la del Parlamento Europeo en marzo, la aprobación formal del Consejo y su publicación en el Diario Oficial de la UE en julio, el texto entró en vigor técnicamente el 1 de agosto de 2024.

Sin embargo, su implementación completa no se producirá hasta 2026 o 2027, una vez se completen los siguientes pasos:

Seis meses después de la fecha técnica de entrada en vigor, los Estados miembros deberán comenzar a retirar los sistemas prohibidos.

– En un plazo adicional de seis meses (previsiblemente a mediados de 2025), comenzarán a aplicarse las normas para los modelos de uso general, como ChatGPT.

Dos años después de la entrada en vigor (es decir, en 2026), todas las disposiciones de la ley serán aplicables, a excepción de las que conciernen a ciertos sistemas de alto riesgo, que contarán con un año adicional de margen (hasta 2027).


Fuentes:

  • Texto aprobado de la Ley de Inteligencia Artificial
  • Anexos de la ley
  • Análisis del Servicio de Investigación del Parlamento Europeo
  • Nota de prensa sobre la aprobación en la Eurocámara
  • Preguntas y respuestas sobre la ley – Comisión Europea
  • Página web oficial sobre la ley

Insights de Evox News: Cómo la Ley de Inteligencia Artificial puede impactar tu negocio

La nueva Ley de Inteligencia Artificial de la UE representa un cambio significativo en el panorama regulatorio para las empresas que desarrollan, utilizan o planean implementar sistemas de IA. A continuación, se detallan algunos puntos clave sobre cómo esta normativa podría afectar a su negocio

Compartir este artículo