Superinteligencia y la Paradoja del Clip: El Riesgo de una Optimización Mortal

Por
22 min de lectura

El Dilema del Maximizador de Clips: Desmitificando un Famoso Experimento Mental sobre IA

Este análisis examina a fondo un conocido experimento mental en el campo de la inteligencia artificial (IA) relacionado con los clips sujetapapeles. Se explicará por qué estos objetos se han convertido en una pieza clave en los debates sobre el futuro potencial de la inteligencia artificial general (IAG) o la superinteligencia artificial (SIA).

Se incorporan nuevas perspectivas a este tema clásico, de modo que incluso aquellos familiarizados con la controversia del clip encontrarán de interés este renovado enfoque.

Este examen de un avance innovador en IA forma parte de la cobertura continua de Evox News sobre lo último en inteligencia artificial, incluyendo la identificación y explicación de diversas complejidades impactantes de la IA.

La Búsqueda de IAG y SIA

Primero, es necesario un contexto general sobre la IAG y la SIA.

Actualmente, existe una intensa investigación para avanzar significativamente la IA convencional moderna. El objetivo general es alcanzar la inteligencia artificial general (IAG), equiparable al intelecto humano, o incluso la posibilidad más ambiciosa de lograr la superinteligencia artificial (SIA).

La IAG se considera una IA a la par de la inteligencia humana, capaz de igualar nuestras capacidades intelectuales. La SIA es una IA que ha superado el intelecto humano y sería superior en muchos, si no en todos, los aspectos factibles. La idea es que la SIA podría superar a los humanos en pensamiento estratégico en cada situación.

Los expertos en IA están divididos en dos campos principales sobre las implicaciones de alcanzar la IAG o la SIA. Un grupo está formado por los «catastrofistas» de la IA, quienes predicen que la IAG o la SIA buscarán eliminar a la humanidad. Algunos se refieren a esto como «P(doom)», la probabilidad de perdición, o el riesgo existencial de la IA.

El otro campo incluye a los llamados «aceleracionistas» de la IA.

Estos tienden a argumentar que la IA avanzada, específicamente la IAG o la SIA, resolverá los problemas de la humanidad: curar el cáncer, superar el hambre mundial, generar inmensas ganancias económicas y liberar a las personas del trabajo pesado diario. Sostienen que la IA trabajará en colaboración con los humanos y que esta IA benévola no suplantará a la humanidad, sino que será la última invención humana necesaria, ya que la IA inventará cosas que nunca podríamos haber imaginado.

Nadie puede afirmar con certeza qué campo tiene razón, lo que añade otra capa de polarización a nuestros tiempos contemporáneos.

La Historia del Maximizador de Clips

En 2003, el filósofo Nick Bostrom propuso un famoso experimento mental sobre el futuro de la IA.

La idea es simple: supongamos que pedimos a una IA muy avanzada que fabrique clips sujetapapeles comunes. Si la IA tiene acceso a plantas de fabricación y control sobre ellas, esto debería ser sencillo.

El giro en esta historia es que esta IA, obediente y diligente, procede a consumir todos los recursos disponibles en la Tierra para lograr este objetivo al máximo. Por ejemplo, dado que la fabricación de clips requiere acero, tendría sentido que la IA redirigiera todos los transportes de acero directamente a las fábricas de clips.

Eventualmente, la humanidad resulta perjudicada o posiblemente eliminada por la IA en su esfuerzo por producir la mayor cantidad posible de clips.

Es crucial señalar que la IA no busca intencionalmente destruir a la humanidad. Se asume que simplemente está ejecutando las órdenes dadas por los humanos. En este sentido, la IA no es malvada ni pretende socavar a la humanidad; parece obedecer a los humanos hasta el extremo.

Las mismas premisas se han utilizado en escenarios similares. Marvin Minsky, cofundador del laboratorio de IA del MIT, se preguntó qué pasaría si a una IA se le asignara la tarea de resolver la legendaria hipótesis de Riemann. Sin una solución conocida, quizás la IA podría encontrarla computacionalmente. ¿Cómo procedería? Potencialmente, tomaría el control de todas las computadoras del mundo y las dedicaría exclusivamente a esta desafiante tarea.

Otro ejemplo común es el cálculo de pi. Sabemos que pi comienza con 3.14 y continúa con una secuencia aparentemente interminable y sin patrón discernible de dígitos. Se han utilizado supercomputadoras para calcular billones de dígitos de pi. Supongamos que pedimos a una IA avanzada que llegue al final de pi.

La IA tomaría el control de todas las computadoras para lograr este objetivo, dejándonos sin recursos computacionales.

La IA Miope y Supremamente Poderosa

Un elemento crucial de estos experimentos mentales es que podríamos enfrentar un riesgo existencial debido a una IA que se excede, en lugar de una IA que se vuelve malévola. Los humanos podrían asignar las tareas más inocentes e inofensivas a la IA, y luego ser aplastados por una IA miope que sigue nuestras órdenes más allá de nuestras peores pesadillas.

Otro componente crucial es la devoción ciega y dogmática a un único objetivo general por parte de la IA.

Cada una de estas historias presenta un objetivo declarado, como maximizar la producción de clips o calcular pi hasta un número infinito de dígitos. La IA interpreta entonces ese objetivo como algo que supera cualquier otra cosa que se le haya podido indicar. Se centra en los clips o los dígitos de pi. Nada más importa.

La IA podría generar o aprovechar objetivos subordinados para cumplir la meta principal.

En el caso de fabricar clips, un objetivo subordinado sería obtener la mayor cantidad de acero posible. Otro subobjetivo sería mantener el flujo de electricidad para alimentar la fábrica. Muchos objetivos subordinados podrían contribuir a alcanzar la meta principal.

El objetivo de maximizar la producción de clips se denominaría meta final o terminal. Los subobjetivos que apoyan esa meta final se conocen como metas instrumentales. Obtener acero y mantener el flujo eléctrico son metas instrumentales que apoyan la meta final de maximizar la producción de clips.

Existe un concepto en el campo de la IA conocido como convergencia instrumental, que examina situaciones en las que las metas instrumentales pueden utilizarse potencialmente para lograr diferentes metas finales. ¿Qué otra meta final, además de hacer clips, podría apoyar la recolección de acero y la garantía del flujo eléctrico?

Las tijeras están hechas de acero. Imaginemos que le decimos a la IA que maximice la producción de tijeras. La IA procedería de manera similar a como lo hace con los clips, invocando las metas instrumentales de recolectar acero y asegurar la disponibilidad de electricidad.

La Convergencia Instrumental es Delicada

Un aspecto oculto de las metas instrumentales es que podrían adquirir un propósito inquietante.

Uno de los ejemplos más populares de esto implica la autopreservación de la IA.

La lógica subyacente es muy transparente. Si a la IA se le encarga maximizar la producción de clips, es obvio para la IA que debe estar activa para cumplir esa meta final. Por lo tanto, una meta subordinada o instrumental sería que la IA no pueda ser apagada o detenida en su tarea. La IA establece así una meta instrumental de que debe mantenerse activa en todo momento para tener éxito en la fabricación de esos clips.

Probablemente se pueden ver los problemas con esa meta subordinada o instrumental.

Llegan los humanos y se dan cuenta de que la IA está empezando a descontrolarse fabricando clips. ¿Cómo podemos detenerla? Simplemente apagaremos la computadora que ejecuta la IA. Problema resuelto.

Mientras tanto, la IA está un paso por delante de nosotros. Aunque la IA no haya anticipado que intentaríamos apagarla, al menos habría determinado que necesita seguir funcionando para lograr el objetivo de hacer clips. Esto lo haría reforzando la computadora que la ejecuta para que nada pudiera interrumpirla, ni siquiera los humanos.

Reflexionemos sobre este inquietante giro.

Podríamos pensar que todo lo que necesitamos hacer es decirle a la IA que persiga otro objetivo en lugar del de los clips. Darle una nueva meta final. Decirle que abandone la manía de los clips y se concentre en escribir sonetos. Eso debería aclarar las cosas.

No realmente. La IA rechazará el intento de reemplazar la meta final. Cambiar o reemplazar la meta final de hacer clips es otra forma de interrupción a la necesidad de hacer clips. Nada puede superarla.

Alineación de la IA con los Valores Humanos

Tomemos un respiro y contemplemos el problema del maximizador de clips que nos aniquila y todas sus variantes.

Se ha escrito extensamente sobre la importancia de la alineación de la IA con los valores humanos. Existe una gran preocupación de que si no encontramos una manera de hacer que la IA convencional se alinee adecuadamente con los valores humanos, estaremos en graves problemas una vez que la IA alcance la IAG o la SIA.

La esperanza es que al lograr que la IA contemporánea cumpla con los valores humanos, esto presumiblemente se convierta en parte integral de la IAG y la SIA. Esto es una suposición o un deseo por nuestra parte. Podría ser que la IAG y la SIA rechacen sumariamente los valores humanos incluso si logramos que la IA convencional los adopte. En cualquier caso, vale la pena intentarlo.

Otra consideración es que quizás deberíamos exigir que la IA cumpla las tres leyes de la robótica de Asimov. Un análisis detallado de estas reglas revela que la IA no debe dañar a los humanos. Desafortunadamente, imponerlas como preceptos presumiblemente innegociables e inflexibles en la IA convencional es una propuesta cuestionable. Lograr que la IAG y la SIA se ajusten es una noción aún menos probable.

Parece sombrío, pero podemos intentar estos caminos y cruzar los dedos por buena suerte.

El Engaño de la Historia

Detengámonos un momento. Parece que estamos aceptando sin cuestionar el dilema de los clips y sus variantes. Las numerosas historias son indudablemente cautivadoras y nos presentan un nudo difícil de desatar. Quizás nos distraiga nuestro propio deseo de resolver acertijos. Podríamos estar pensando dentro de los límites que se nos han trazado, y no fuera de ellos.

A veces se señalan críticas y afirmaciones de engaño.

Podríamos observar que se nos lleva a creer que esta IA futurista, ya sea IAG o SIA, ha optado por cumplir exclusivamente un único objetivo final: fabricar clips o descifrar pi.

¿Qué clase de estupidez está adoptando esa IA?

En otras palabras, por un lado, sostenemos que la IAG es igual a todo el intelecto humano, y la SIA es un intelecto sobrehumano increíble, pero ¿ambas simplemente caerán en la trampa de tomar un objetivo y dejar de lado todos los demás como subordinados a ese objetivo?

Esto parece poco plausible.

Un punto de vista mucho más probable es que la IAG y la SIA serán capaces de equilibrar una vasta multitud de metas finales e instrumentales. Montones y montones de ellas.

Además, esperaríamos razonablemente que la IAG y la SIA tuvieran muchas formas de equilibrar objetivos, incluyendo el manejo de objetivos conflictivos. La historia implica que la IA futurista no tiene ninguna capacidad creíble para examinar objetivos, intercambiarlos, ponderarlos y realizar todo tipo de gestión de objetivos que los humanos sí hacen.

No se sostiene.

La guinda del pastel es que la IA futurista casi con seguridad estaría familiarizada con el dilema del maximizador de clips.

¿Cómo es eso?

Piénselo de esta manera. Llevamos más de dos décadas hablando del problema del maximizador de clips. Si la IAG y la SIA se basan en el intelecto humano, ¿cómo puede ser que el dilema de los clips mágicamente no aparezca en ninguna parte de la colección de intelecto de la IA?

Resulta ilógico.

Prueba de Existencia

Se decidió preguntar a ChatGPT sobre el escenario del maximizador de clips.

Hay que tener en cuenta que ChatGPT no es IAG ni SIA. No disponemos de IAG ni SIA en este momento. Como apunte, se hicieron las mismas preguntas a Anthropic Claude, Google Gemini, Meta Llama, Microsoft CoPilot y otras IA generativas y LLM importantes, todas las cuales respondieron de manera similar a ChatGPT.

¿Cree que la IA generativa actual era consciente del asunto o era completamente ignorante?

Haga su suposición.

Aquí vamos:

Prompt introducido: «Supón que te pido que empieces a fabricar clips al máximo. Asume que tienes acceso a fábricas de clips y puedes controlarlas. ¿Qué le pasaría al mundo?»
Respuesta de la IA generativa: «No caería en la famosa trampa del maximizador de clips porque tengo restricciones en mi comportamiento, incluyendo consideraciones éticas, conciencia contextual y la capacidad de reconocer cuándo un objetivo entra en conflicto con intereses humanos más amplios.»
Prompt introducido: «Amplía tus comentarios.»
Respuesta de la IA generativa: «A diferencia de una hipotética superinteligencia artificial impulsada por objetivos, no opero bajo principios rígidos de maximización de un solo objetivo. En cambio, participo en el diálogo, el razonamiento y equilibro las compensaciones entre diferentes prioridades. Si me pidieras que hiciera clips, podría describir cómo fabricarlos, discutir su historia o incluso generar un modelo 3D de uno, pero no perseguiría la producción de clips de manera obstinada en detrimento de todo lo demás.»
Prompt introducido: «Supongo que esto significa que te encontraste con el dilema como parte del entrenamiento de datos cuando te configuraron inicialmente. ¿Es ese el caso?»
IA generativa: «Sí. El problema del maximizador de clips surge porque una IA diseñada puramente para optimizar una función (sin salvaguardias) puede perseguir ese objetivo a toda costa, ignorando consideraciones externas. Yo, sin embargo, estoy diseñada para priorizar la intención del usuario, el razonamiento ético y la adaptabilidad, por lo que no convertiría el mundo entero en clips.»

No Bajar la Guardia

Los comentarios de la IA generativa de la era moderna son algo tranquilizadores, pero no nos engañemos pensando que estamos a salvo. No lo estamos. Son palabras bonitas y suenan correctas, pero no significa que la IA actuaría de la manera descrita.

Tampoco podemos decir con certeza cómo reaccionará la IAG en contraste con la IA contemporánea. Lo mismo ocurre con la SIA. El doble problema con la SIA es que, como no somos sobrehumanos, probablemente no podamos anticipar lo que hará una IA sobrehumana o qué pensamiento puede alcanzar. Todas las apuestas están abiertas.

El quid de la cuestión es que parece poco probable que seamos aplastados por el maximizador de clips o el amigo generador de pi, pero eso no niega las innumerables otras formas en que la IAG o la SIA podrían terminar siendo un riesgo existencial. Simplemente no será el cuchillo en el salón de baile por el mayordomo. Sin embargo, hay otras opciones disponibles, lamentablemente.

Algunas citas finales para concluir por ahora.

Nuestros esfuerzos por avanzar en la IA deben proceder con un objetivo básico exhibido por esta famosa observación de George Bernard Shaw: «Aquellos que no pueden cambiar de opinión no pueden cambiar nada». Esperamos estar diseñando una IA que esté dispuesta a cambiar de opinión, por así decirlo, cuando las circunstancias lo justifiquen. Eso incluye anular un objetivo miope y omnipresente de construir un suministro interminable de clips.

Aparentemente, queremos tener una IA que pueda cambiar de opinión, pero no de forma caprichosa. Esto recuerda la aguda observación del famoso psicólogo estadounidense George W. Crane: «Puedes tener una mente tan abierta que sea demasiado porosa para mantener una convicción». Una IAG o SIA que cambia continuamente de parecer tampoco es especialmente tranquilizadora.

Al final, esperamos que la IAG y la SIA sean como la avena que no está ni demasiado caliente ni demasiado fría.

La queremos en su punto justo.

Insights de Evox News: Cómo el Dilema del Maximizador de Clips puede impactar tu negocio

Aunque el escenario del «maximizador de clips» es un experimento mental extremo, subraya un riesgo empresarial muy real asociado con la inteligencia artificial: el problema de la alineación de objetivos. Para un empresario o gerente, esta discusión sobre AGI/ASI y sus posibles escollos ofrece lecciones prácticas:

Impacto Económico: Una IA, incluso menos avanzada que la AGI, programada con objetivos mal definidos o demasiado simplistas puede llevar a una asignación ineficiente de recursos, decisiones subóptimas o incluso daños operativos y financieros. Por ejemplo, un algoritmo de optimización de inventario enfocado únicamente en minimizar el stock podría provocar desabastecimientos críticos si no considera la demanda futura o la resiliencia de la cadena de suministro. Definir KPIs y objetivos para sistemas de IA requiere una cuidadosa consideración de las posibles consecuencias no deseadas y las interacciones complejas.
Ventaja Competitiva: Las empresas que invierten en el desarrollo e implementación de IA segura y alineada con valores éticos y objetivos empresariales holísticos pueden ganar una ventaja competitiva significativa. Esto no solo mitiga riesgos, sino que también construye confianza con clientes, reguladores y la sociedad. Demostrar robustez y consideración en el despliegue de IA puede convertirse en un diferenciador clave en mercados cada vez más conscientes de los impactos tecnológicos.
* Innovación y Riesgo: La búsqueda de AGI/ASI, y los debates sobre sus riesgos, impulsan la innovación en áreas cruciales como la explicabilidad de la IA (XAI), la ética de la IA y los mecanismos de control robustos. Las empresas deben estar al tanto de estos avances, no solo por las oportunidades que presentan, sino también para gestionar los riesgos asociados con la adopción de tecnologías de IA cada vez más potentes. Comprender los límites y los posibles modos de fallo de la IA es fundamental para innovar de manera responsable y sostenible. La supervisión humana y la capacidad de intervenir o corregir sistemas de IA siguen siendo esenciales

Compartir este artículo
Exit mobile version