¿Por qué reconsiderar ahora la Inteligencia Artificial? Una cuestión de precaución, no de alarmismo
El auge de los modelos de inteligencia artificial generativa, con capacidad para mantener conversaciones y generar contenido como textos, imágenes o música basándose en datos previos, ha llevado a más de 5.500 especialistas a nivel mundial a solicitar una interrupción temporal. La pregunta es: ¿por qué en este momento? La velocidad con la que esta tecnología progresa genera inquietud y demanda una reflexión profunda.
Liderados por figuras como Yoshua Bengio, galardonado con el premio Turing y catedrático en la Universidad de Montreal (Canadá), y Stuart Russell, de la Universidad de California en Berkeley (EE. UU.), los firmantes instan en una misiva a los laboratorios a detener por un mínimo de seis meses el entrenamiento de sistemas de inteligencia artificial (IA) que superen en potencia a GPT-4, el modelo más reciente de IA generativa de OpenAI.
Varios expertos españoles se encuentran entre los signatarios, incluyendo a Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del CSIC, y Pablo Jarillo-Herrero, del MIT. Ambos concuerdan en que no se han adoptado las «medidas de precaución indispensables» antes de liberar masivamente esta IA al público general.
Sierra ha expresado una «creciente preocupación por esta suerte de competencia acelerada» en la que se encuentran inmersas las compañías tecnológicas. OpenAI no es la única desarrollando modelos de IA generativa; Google con Bard y Meta con LLaMa también participan activamente.
No se trata de catastrofismo
Sierra aclara que no es una postura catastrofista, sino una observación de que «hay empresas que han invertido sumas considerables, buscan rentabilizar sus desarrollos y compiten por la mayor porción del mercado», pero en «este afán están mostrando una falta de cautela».
Subraya la carencia de evaluación, sin la cual desconocemos las posibles repercusiones de esta IA. Compara la situación con el riguroso proceso de aprobación de fármacos, donde las agencias reguladoras invierten años y exigen la superación de múltiples fases de ensayos clínicos.
«Las compañías lanzan nuevas versiones a un ritmo vertiginoso, casi mensual -OpenIA ya está desarrollando ChatGPT-5-, poniéndolas al alcance global y no de forma segmentada», critica Sierra.
Jarillo-Herrero comparte la inquietud por la celeridad del avance de esta IA y evoca el debate previo sobre una moratoria para la técnica de edición genética CRISPR, cuyo progreso superaba la capacidad de asimilación de la sociedad, con riesgos de aplicaciones descontroladas.
«Ante tecnologías tan transformadoras, es prudente comprender y prever las posibles derivaciones de su utilización y establecer una regulación», apunta.
Ambos especialistas reconocen que la IA, incluida la generativa, puede ofrecer beneficios. No obstante, Sierra advierte que estos sistemas están diseñados para que el resultado sea creíble, no necesariamente veraz, y para simular la autoría humana, lo cual entraña un riesgo significativo.
Estos sistemas, fundamentados en el aprendizaje automático, se nutren de millones de textos, imágenes y vídeos disponibles en internet, y sus creadores utilizan los datos de las interacciones con los usuarios para refinar los modelos subsiguientes, lo que también suscita interrogantes sobre la privacidad y el manejo de datos personales.
La Desinformación: El Principal Temor
Jarillo-Herrero, profesor de Física en el MIT, centra su preocupación primordialmente en la desinformación. Ejemplos recientes como las imágenes ultrarrealistas del Papa Francisco vistiendo un abrigo acolchado blanco o de Donald Trump oponiendo resistencia a un arresto, que han circulado ampliamente en redes sociales, ilustran este peligro.
«Si bien la desinformación ya existía, antes era relativamente sencillo para una persona informada detectarla y distinguirla. Hoy, con el empleo de la IA, resulta mucho más fácil publicar y difundir información que, a primera vista, parece auténtica pero es falsa», resume Jarillo-Herrero.
Añade que «la información y los textos con los que se entrena esta IA contienen numerosos sesgos, los mismos que tenemos los humanos», lo que provoca que las respuestas generadas perpetúen todo tipo de estereotipos infundados.
El investigador reflexiona sobre la histórica dificultad de la humanidad para contener avances científicos y técnicos potencialmente peligrosos, como el desarrollo de armas nucleares por múltiples naciones.
«No obstante, existe una diferencia crucial entre la IA y otros desarrollos peligrosos como las armas nucleares. Estas últimas requieren instrumentación y materiales muy complejos, de difícil acceso incluso para gobiernos».
En contraste, señala, «cualquier persona con unos pocos ordenadores puede utilizar la IA. Por ejemplo, los ciberdelincuentes seguramente ya están planificando miles de ataques empleando IA, capaz de resolver fácilmente acertijos de verificación que antes necesitaban intervención humana».
«Esta moratoria de seis meses, de concretarse, podría ayudar a los gobiernos a comprender mejor las posibles consecuencias negativas de la IA y a regular su uso. Las empresas más avanzadas quizás puedan hacer una pausa y reflexionar sobre cómo mitigar esos efectos adversos», concluye el científico del MIT.
Sierra, quien alerta sobre el riesgo de poner en manos de adolescentes sistemas capaces de generar desinformación masiva, también aboga por regular su uso, recordando que la soberanía reside en la ciudadanía: «No estoy a favor de prohibir, pero sí de regular».
Hacia un Código Deontológico
Este experto, también presidente de la Asociación Europea de IA, propone la elaboración de un código deontológico claro. Aunque existen precedentes de documentos de buenas prácticas de la Unión Europea, la OCDE y otras organizaciones, considera necesario ahora un código mundial, sólido y transparente.
En esta línea, menciona estar en contacto con Stuart Russell, uno de los impulsores de la carta, para explorar cómo materializar esta iniciativa.
A nivel europeo, sugiere que la ley de inteligencia artificial debería reabrirse a debate para especificar los riesgos inherentes a la IA generativa y establecer límites claros.
Dicha ley, cuya implementación se espera para este año, ya contempla la prohibición de ciertas prácticas, como el reconocimiento facial en espacios públicos, y categoriza los riesgos de la IA en niveles alto, moderado o bajo.
Identifica sectores, como el educativo, donde se requiere especial protección y control (el uso de IA para evaluar estudiantes o asignarlos a centros educativos se considera de alto riesgo).
Sin embargo, Sierra concluye que, dado que los sistemas de IA generativa estaban en una fase incipiente cuando se redactó la ley, ahora que existen modelos muy avanzados, sería pertinente revisar y adaptar la normativa.
Insights de Evox News: Cómo la pausa solicitada en IA puede impactar tu negocio
La petición de una moratoria en el desarrollo de IA avanzada y el creciente debate sobre su regulación presentan implicaciones significativas para el entorno empresarial:
Impacto Económico: Una pausa podría afectar temporalmente los ingresos y la valoración de las empresas líderes en IA, pero también nivelar el campo de juego para competidores. A largo plazo, la falta de regulación y los riesgos asociados (desinformación, sesgos) podrían erosionar la confianza del consumidor y generar costes imprevistos para las empresas que implementen estas tecnologías sin la debida diligencia. La regulación, aunque pueda incrementar los costes de desarrollo y cumplimiento, podría fomentar un mercado de IA más estable y fiable.
Ventaja Competitiva: Las empresas que adopten un enfoque proactivo hacia la IA ética y responsable podrían obtener una ventaja competitiva. Demostrar transparencia, control sobre los sesgos y un uso seguro de la IA puede convertirse en un diferenciador clave ante clientes, inversores y reguladores. Una pausa podría dar tiempo a las empresas para evaluar sus propias estrategias de IA, enfocándose en aplicaciones de menor riesgo o invirtiendo en el desarrollo de capacidades internas de gobernanza de la IA.
* Innovación y Estrategia: El debate actual no necesariamente frena la innovación, sino que podría redirigirla hacia un desarrollo más cauteloso y centrado en el ser humano. Las empresas pueden enfocar sus esfuerzos de innovación en IA en áreas donde los beneficios superen claramente los riesgos y donde se puedan implementar salvaguardas efectivas. Estratégicamente, es crucial para los líderes empresariales mantenerse informados sobre el panorama regulatorio emergente y prepararse para adaptar sus modelos de negocio y operaciones a un entorno donde la IA responsable sea la norma. La inversión en comprender y mitigar los riesgos de la IA generativa será fundamental