Advierten sobre «riesgos profundos»: Musk y expertos solicitan suspender 6 meses la IA más potente

Advierten sobre «riesgos profundos»: Musk y expertos solicitan suspender 6 meses la IA más potente

Evox News
Por
7 min de lectura

Líderes tecnológicos y expertos piden una moratoria de seis meses en el desarrollo de IA avanzada

Un colectivo de figuras prominentes del sector tecnológico, especialistas y políticos, incluyendo a Elon Musk, ha emitido una petición con un tono de urgencia, solicitando una interrupción de seis meses en los avances de inteligencia artificial (IA) de alta capacidad. Argumentan que estos desarrollos «pueden suponer riesgos profundos para la sociedad y la humanidad».

La carta abierta, difundida por la organización sin ánimo de lucro Future of Life Institute, señala: «La sociedad ha pausado otras tecnologías con efectos potencialmente catastróficos. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos precipitemos sin estar preparados».

Entre los firmantes se encuentran personalidades como el CEO de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, así como investigadores de renombre como Yoshua Bengio, Stuart Russel, y los españoles Carles Sierra y Ramón López De Mantaras. Advierten sobre los peligros inherentes a la IA si su progreso no se acompaña de una gestión y planificación adecuadas.

«La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes», afirma la misiva. Sostiene también que «los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas». Añaden la preocupante afirmación de que «nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable» estas entidades digitales.

Alertan sobre los peligros inherentes a la Inteligencia Artificial

Los signatarios exponen los temores y peligros que han resonado recientemente en diversos foros y conversaciones, utilizando un lenguaje que subraya la gravedad de la situación.

Plantean preguntas cruciales: «¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?». Concluyen enfáticamente que «tales decisiones no deben delegarse en líderes tecnológicos no electos».

En este contexto, instan a los desarrolladores a colaborar con los legisladores para acelerar la creación de un marco legal sólido que regule la IA.

Subrayan nuevamente que los sistemas potentes de Inteligencia Artificial solo deberían desarrollarse cuando exista certeza sobre sus efectos positivos y la manejabilidad de sus riesgos.

«Hacemos un llamamiento a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4», declara el comunicado. Piden además la intervención gubernamental para imponer esta moratoria si las entidades involucradas se niegan a suspender temporalmente sus investigaciones.

GPT-4 y el Contexto Tecnológico

GPT (Generative Pre-trained Transformer) es un tipo de modelo de aprendizaje automático empleado para generar lenguaje similar al humano. GPT-4 representa un avance significativo respecto a modelos anteriores.

El laboratorio OpenAI describe GPT-4 como su «último hito en el esfuerzo para ampliar el aprendizaje profundo». Este nuevo sistema puede procesar entradas tanto de texto como de imágenes, generando salidas de texto.

No obstante, OpenAI reconoce que GPT-4 todavía es menos capaz que los humanos en muchas situaciones del mundo real, aunque «muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales».

La carta abierta propone que, durante esta pausa de seis meses, los laboratorios de IA y expertos independientes «desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes».

Finalmente, solicitan que la investigación y el desarrollo en IA se reorienten hacia la creación de «sistemas potentes y de última generación más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales».

Insights de Evox News: Cómo la petición de pausa en IA puede impactar tu negocio

Esta llamada a una moratoria en el desarrollo de IA avanzada tiene implicaciones significativas para el mundo empresarial:

Impacto Económico: Una pausa podría desacelerar temporalmente la innovación disruptiva en ciertos sectores, afectando inversiones y la valoración de empresas centradas en IA de vanguardia. Sin embargo, también podría reorientar la inversión hacia tecnologías de IA más seguras y éticas, generando nuevas oportunidades económicas a largo plazo. Para las empresas usuarias de IA, podría significar una estabilización temporal del panorama tecnológico, permitiendo evaluar mejor las herramientas existentes.
Ventaja Competitiva: Las empresas que lideran el desarrollo de IA muy avanzada podrían ver frenado su impulso, permitiendo a competidores (quizás más enfocados en la aplicación segura o en nichos específicos) ganar terreno. Por otro lado, aquellas que ya priorizan la seguridad y la ética podrían ver reforzada su posición y reputación si la industria adopta los protocolos propuestos durante la pausa. La gestión del riesgo asociado a la IA se convierte en un factor competitivo clave.
* Innovación: Lejos de detenerla, una pausa enfocada en la seguridad podría redirigir la innovación. En lugar de buscar únicamente mayor capacidad, el esfuerzo se centraría en la fiabilidad, transparencia y control de los sistemas de IA. Esto podría acelerar el desarrollo de IA explicable (XAI), IA robusta y marcos de gobernanza de IA, innovaciones cruciales para la adopción empresarial generalizada y la confianza del consumidor. Las empresas que inviertan en estas áreas podrían liderar la siguiente fase de la revolución de la IA

Compartir este artículo