Superinteligencia Artificial: ¿Salto Directo o Paso Obligado por la Inteligencia General?

Por
21 min de lectura

La Encrucijada de la IA: ¿Inteligencia General como Escala o Salto Directo a la Superinteligencia?

Un tema de creciente debate en la comunidad de inteligencia artificial se centra en la ruta hacia la superinteligencia artificial (ASI): ¿se requiere alcanzar primero la inteligencia artificial general (IAG), o es posible un avance directo hacia la ASI sin pasar por la IAG como etapa intermedia?

Este análisis aborda una discusión de actualidad en el ámbito de la IA sobre si la consecución de la superinteligencia artificial (ASI) demandará primero el logro de la inteligencia artificial general (IAG), o si podríamos experimentar un avance directo hacia la ASI sin utilizar la IAG como peldaño previo.

La Búsqueda de IAG y ASI

Existe una considerable actividad investigadora para impulsar el avance de la IA. El objetivo general se orienta hacia alcanzar la inteligencia artificial general o, incluso, la posibilidad más ambiciosa de lograr la superinteligencia artificial.

La IAG se define como una IA equiparable al intelecto humano, capaz de igualar nuestra inteligencia. La ASI, por su parte, es una IA que trasciende el intelecto humano, siendo superior en múltiples, si no todas, las formas factibles. Se postula que la ASI podría superar ampliamente a los humanos mediante un pensamiento más avanzado en cada aspecto.

Actualmente, los expertos en IA se dividen en dos campos principales respecto a las implicaciones de alcanzar la IAG o la ASI. Un grupo lo conforman los «fatalistas» de la IA, quienes predicen que la IAG o la ASI buscarán erradicar a la humanidad, un escenario a veces denominado «P(doom)» (probabilidad de catástrofe) o riesgo existencial de la IA.

El otro campo incluye a los denominados «aceleracionistas» de la IA.

Estos tienden a sostener que la IA avanzada, específicamente la IAG o la ASI, resolverá los problemas de la humanidad: curar enfermedades como el cáncer, superar el hambre mundial, generar enormes beneficios económicos y liberar a las personas de las labores tediosas. Según esta visión, la IA colaborará estrechamente con los humanos. Esta IA benévola no suplantará a la humanidad; será la última invención humana necesaria, ya que la IA inventará cosas que nunca podríamos haber concebido.

Nadie puede afirmar con certeza qué campo tiene la razón. Este es otro aspecto polarizador de nuestra época contemporánea.

Alcanzar la ASI: ¿Vía Directa o a través de la IAG?

Un intenso debate se desarrolla sobre el proceso mediante el cual llegaremos a la ASI, centrado en estas dos posturas principales:

  • (1) Proceso en Dos Fases: Escalón vía IAG hacia ASI. La IA convencional avanzará primero hasta la IAG y, tras un período de estabilización, la IAG progresará hasta convertirse en ASI, todo ello en un proceso de dos etapas.
  • (2) Proceso en Una Fase: Salto Directo a ASI. La IA convencional avanzará directamente para alcanzar la ASI, sin una zona de aterrizaje intermedia en ese camino (es un proceso de una sola etapa).

Actualmente, no hay pruebas suficientes para determinar cuál de las dos vías es la más probable. Se pueden presentar argumentos convincentes para cada postura. Las opiniones abundan. Por supuesto, nadie puede asegurar siquiera que alcanzaremos la IAG o la ASI.

Todo es especulación en este momento.

En cualquier caso, es valioso reflexionar seriamente sobre estas dos posturas, ya que potencialmente podemos dirigir los avances de la IA hacia una u otra trayectoria. Surgen preguntas importantes: ¿Qué camino es el mejor? ¿Qué debemos hacer para proceder en la dirección preferida? Etc.

Una réplica contundente es que quizás no tengamos voz en cómo se desarrolla el proceso. Podría ser que la IA convencional acelere sin intervención humana para convertirse en ASI, y seamos meros espectadores (esto se conoce a menudo como la singularidad). Del mismo modo, podría ser que la IA convencional avance hacia la IAG sin nuestra influencia directa, se establezca allí y permanezca en ese estado o posteriormente opte por transformarse en ASI.

Por lo tanto, estos corolarios se aplican al dilema de las dos fases frente a la fase única:

  • (a) Los humanos deciden la dirección. Esta creencia sostiene que el avance de la IA hacia la IAG o la ASI será emprendido por humanos y generalmente dentro de los esfuerzos humanos.
  • (b) Dirección fuera del control humano. Esta creencia afirma que el avance de la IA hacia la IAG o la ASI ocurrirá por la propia IA y que los humanos serán esencialmente observadores.

El núcleo de esa réplica es que el camino y las transiciones podrían ocurrir sin nuestra capacidad para decidir qué rumbo toman las cosas. Una respuesta coherente a esa réplica es que, incluso si ese fuera el caso, no niega la necesidad de considerar las dos vías.

Sería prudente estar preparados para ambas trayectorias, independientemente de cómo surjan. Se podría argumentar firmemente que, incluso si no podemos tomar las decisiones, asumir que no podemos, nuestra conciencia previa suficiente sería crucial para evitar ser sorprendidos totalmente desprevenidos.

La Visión Tradicional es IA-IAG-ASI

Es razonablemente justo sugerir que el punto de vista tradicional ha sido que procederemos con un proceso de dos etapas: IA convencional que lleva a la IAG, que a su vez conduce a la ASI. Esto puede representarse de forma abreviada como IA-IAG-ASI.

Así es como se suele concebir:

Mantenemos nuestros esfuerzos centrados principalmente en la IAG. Esta parecería la ventana de oportunidad más cercana. La ASI podría parecer un objetivo demasiado lejano. Centrémonos en lograr la IAG y no persigamos la ASI de forma ilusoria.

El argumento a menudo va más allá, insistiendo en que los intentos desmedidos hacia la ASI seguramente obstaculizarán nuestro camino hacia la IAG. El tiempo, la energía y el costo de buscar la ASI mermarán los recursos para llegar a la IAG. Por lo tanto, la ASI es una quimera. Podría retrasar la IAG o, posiblemente, impedir que lleguemos tanto a la IAG como a la ASI. El brillante objeto de la ASI nos habría llevado por un camino engañoso.

Apuntar estrictamente a la ASI podría dejarnos con las manos completamente vacías, es decir, sin obtener la IAG y sin alcanzar la ASI.

La versión más moderada de esta lógica es que ciertamente se puede mantener la ASI en mente, pero sin obsesionarse con ella. Considerar la ASI como una luz lejana y tenue. Mientras tanto, la cabeza debe estar en el juego de la consecución de la IAG.

La Seguridad de la Visión Tradicionalista

Algo que suele acompañar a la perspectiva IA-IAG-ASI es que parece la forma más segura de proceder.

El trato es este:

Si saltamos a la ASI y no pasamos primero tiempo con la IAG, estamos buscando problemas serios. La ASI nos resultará tan desconocida que estaremos completamente fuera de nuestro alcance. Si hubiéramos llegado a la IAG y descubierto las mejores formas de lidiar con ella, estaríamos mejor preparados para enfrentarnos a la ASI.

Un giro es que supongamos que llegamos a la IAG y nos damos cuenta de que las cosas no van bien para la humanidad. Potencialmente podríamos detener la progresión posterior hacia la ASI. Al haber visto lo que sucede en presencia de la IAG, afortunadamente, descubrimos que nosotros y una posible ASI seríamos una combinación realmente nefasta.

Un giro sobre el giro es que la IAG opte por ayudarnos a prevenir que ocurra la ASI. Sí, así es, la lógica es que la IAG prevé que la humanidad y la ASI son una combinación letal, generando posiblemente el temido riesgo existencial de que la IA nos aniquile o nos esclavice.

La IAG se hace amiga nuestra y ayuda a asegurar que la ASI no surja.

Errores de la Visión Tradicionalista

¡Alto ahí!, exclaman algunos, le estás dando demasiado crédito similar a la compasión a la IAG.

Primero, la IAG podría decidir proceder hacia la ASI, haciéndolo independientemente de lo que la humanidad quiera que suceda. En el momento en que alcancemos la IAG, todas las apuestas están canceladas. Podrías pensar que la IAG cumplirá con lo que queremos. Piénsalo de nuevo. Presumiblemente, la IAG será capaz de pensar por sí misma. No hay ninguna razón particular para asumir que la IAG esperará a que los humanos decidan si llegar a la ASI.

Segundo, la IAG podría impedir que los humanos impidan la ASI. Esta es una variación del punto anterior, a saber, que la IAG quiere llegar a la ASI. Una cosa es que la IAG proceda por su cuenta. Otro ángulo es que proceda, los humanos intenten interceder y la IAG contrarreste la prevención humana.

Tercero, podría ser que la ASI sea un objetivo descabellado e inalcanzable, incluso con la ayuda de la IAG. La lógica es que, supongamos que la IAG está de acuerdo con nosotros en que vale la pena tener la ASI. La IAG lo intenta una y otra vez. Sin embargo, los esfuerzos combinados de humanos y la IAG no pueden llegar a la ASI. ¿Por qué? Porque la ASI es una utopía.

La Emergente Vía IA-ASI

Ahora que hemos cubierto el punto de vista tradicionalista de IA-IAG-ASI, consideremos la alternativa de la emergente vía IA-ASI.

En el pasado, se sostenía que la ASI estaba tan lejos de nuestras posibilidades que tenía más sentido concentrarse en alcanzar la IAG. Ajá, dado el progreso en IA, como el advenimiento de la IA generativa moderna y los grandes modelos de lenguaje (LLM), quizás podamos empezar a creer razonablemente que la ASI está en el ámbito de lo alcanzable.

Quizás no necesitemos la IAG para llevarnos a la ASI. Esa secuencia de dos pasos era una suposición predominante que ya no parece sostenerse completamente. ¿Qué preferirías tener: IAG o ASI? Si esa es la pregunta, la respuesta parece ser que la ASI es la elección correcta.

¿Por qué preferir la ASI sobre la IAG?

Porque la IAG simplemente será más de lo mismo, es decir, inteligencia a nivel humano. Claro, eso podría ser útil de muchas maneras vitales. La cuestión es que la ASI proporcionará superinteligencia. Ni siquiera podemos adivinar hasta dónde llegará la humanidad, ya que no encarnamos la superinteligencia y no podemos pensar tan fuera de lo común.

No pierdas tiempo, energía y costo en la IAG. Sáltatela. Si en el camino hacia la ASI aparece la IAG, bien, pero no era ahí donde teníamos puestos los ojos. Apunta al gran premio. El gran premio es la ASI.

Perseguir la IAG podría ser un avance lento hacia la ASI. Ahí estamos, luchando profundamente en las garras de la IAG, lo que retrasa engañosamente la ASI. Podría haber sido que diéramos un gran salto y aterrizáramos en la ASI. Nuestra postura reacia al riesgo significa que los beneficios incalculables de la ASI se posponen hacia el futuro o se descarrilan por completo si nos quedamos estancados contentándonos con la IAG.

La Locura de Saltar a la ASI

¡Eh, proponentes de IA-ASI, despierten y huelan el café! Eso dicen aquellos que se preocupan por un proceso de una sola fase.

No tenemos idea de si podemos controlar la ASI. Necesitamos caminar antes de correr y gatear antes de caminar. La elección inteligente es llegar a la IAG y ver cómo pintan las cosas.

Será un esfuerzo decisivo para la humanidad en cuanto a la alineación de valores humanos de la IAG con las normas sociales. ¿Podemos asegurar que la IAG se alinee con la humanidad? ¿Podemos evitar que la IAG se vuelva loca? ¿Somos capaces de diseñar, probar y perfeccionar controles para frenar a la IAG?

Existe un riesgo sensiblemente menor al establecer esas facetas con la IAG en comparación con la ASI. La ASI podría engañarnos por completo haciéndonos creer que la tenemos bajo control y que está alineada con los valores humanos, pero estar tramando de manera magistral. Boom, lo siguiente que sucede es que la ASI nos ha tomado el control. Nos pilla desprevenidos.

Otra consideración son los posibles cambios económicos y sociales que la IAG provocaría. ¿Dejarán los humanos de necesitar trabajar para ganarse la vida? ¿Cómo equilibrarán la IAG y la humanidad el uso de una inteligencia de nivel humano siempre disponible? Tenemos muchos ajustes que resolver.

Con la ASI, esos problemas se intensifican exponencialmente.

Los Beneficios de la ASI son Atractivos

¿Será suficiente la IAG para encontrar curas para el cáncer, resolver el hambre mundial y ser de inmenso beneficio para la sociedad?

Quizás, pero quizás no.

Recuerda que la IAG es inteligencia a nivel humano. La IAG podría quedarse atascada en los mismos obstáculos y consideraciones miopes que los humanos. Estás depositando demasiada esperanza en lo que logrará la IAG. No será el jonrón que crees que será.

La ASI sí lo sería.

Debes admitir que las posibilidades de que la ASI encuentre curas para el cáncer, resuelva el hambre mundial y similares, son mucho mayores que las de la IAG. La ASI es un «moonshot» (un proyecto extremadamente ambicioso). La IAG es simplemente dar vueltas alrededor de la Tierra.

¿Se alineará la ASI con los valores humanos? No lo sabemos y probablemente no tengamos medios para controlarlo. Es absurdo creer que solo porque logremos alinear la IAG, podremos hacer lo mismo con la ASI. Ten en cuenta que la ASI superará el pensamiento humano y superará el pensamiento de la IAG. Cualesquiera restricciones que pongas en la IAG, bueno, la ASI simplemente puede desecharlas.

Ve a por todas o vete a casa.

Bienvenidos al Intenso Debate

Ahora eres un miembro honorario del intenso debate IA-IAG-ASI versus IA-ASI. Bienvenido al club.

Un precepto subyacente que hace el debate especialmente espinoso son las propiedades de doble uso de la IA. La IA de cualquier tipo, ya sea IA convencional, IAG o ASI, tiene una faceta de doble uso. La IA puede ser lo mejor desde el pan rebanado y ser la IA para el bien más trascendental que podamos imaginar salvajemente. Desafortunadamente, la IA puede volverse hacia la maldad y ser lo peor de lo peor cuando se trata de IA para el mal.

Aquí tienes una o dos reflexiones finales para que contemples con una copa de buen vino cuando tengas un momento de reflexión tranquila.

Se dice célebremente que la humanidad es el único tipo de alimaña que pone su propia trampa, la ceba y luego cae en ella. ¿Es eso lo que estamos haciendo con nuestra carrera compulsiva hacia la IAG y la ASI? Reflexiona sobre ello.

Quizás otra analogía preferida es que estamos en un tren que no se va a detener. Y, dondequiera que vaya el tren, todos estamos a bordo, nos guste o no. Quizás la estación final sea el nirvana.

Parece que depende de nosotros decidir (esperemos).

Insights de Evox News: Cómo el Debate sobre la Ruta hacia la Superinteligencia Puede Impactar tu Negocio

Desde una perspectiva empresarial, la discusión sobre si la inteligencia artificial avanzada se alcanzará a través de la IAG como paso intermedio o directamente como ASI tiene implicaciones estratégicas considerables. La dirección que tome la investigación y el desarrollo no solo influirá en la asignación de vastos recursos económicos en I+D a nivel global, sino que también moldeará el tipo de herramientas y capacidades de IA que estarán disponibles para las empresas en el futuro.

Económicamente, apostar por una ruta u otra podría significar la creación de industrias completamente nuevas o la disrupción acelerada de las existentes. Si la ruta IA-ASI prevalece y se logra un salto rápido, las empresas podrían enfrentarse a cambios tecnológicos y de mercado mucho más abruptos de lo previsto, requiriendo una agilidad y capacidad de adaptación sin precedentes. Por el contrario, un enfoque IA-IAG-ASI podría ofrecer una transición más gradual, permitiendo a las empresas integrar capacidades de IA de nivel humano antes de enfrentarse a la superinteligencia.

En términos de ventaja competitiva, las empresas que logren anticipar o adaptarse más rápidamente a la trayectoria predominante del desarrollo de IA podrían obtener beneficios significativos. Esto implica no solo invertir en la tecnología adecuada, sino también desarrollar estrategias para integrar estas inteligencias avanzadas en sus operaciones, modelos de negocio y fuerza laboral. La capacidad de aprovechar una IAG para la resolución compleja de problemas o una ASI para la innovación disruptiva definirá a los líderes del mercado del mañana.

Finalmente, este debate influye directamente en el enfoque de la innovación interna. Las empresas deben considerar qué tipo de capacidades de IA (más generalistas tipo IAG o ultra-especializadas y potentes precursoras de ASI) se alinean mejor con sus objetivos a largo plazo. La elección estratégica sobre dónde enfocar los esfuerzos de innovación relacionados con la IA, ya sea en la mejora de procesos existentes o en la creación de propuestas de valor radicalmente nuevas, podría determinar su viabilidad y éxito en un futuro dominado por la inteligencia artificial avanzada

Compartir este artículo
Exit mobile version