¿Es la IA solo una tecnología común o merece ser considerada extraordinaria?
En el debate actual, se examina una controversia en rápida expansión sobre si la IA es simplemente una tecnología común y corriente. La propuesta es que se está exagerando la naturaleza y el impacto subyacente de la IA, lo que lleva a una falsa sensación de que la IA es sobrehumana. Esto, a su vez, impide abordar adecuadamente la IA convencional y nos hunde en fantasías sobre lo que la IA podría llegar a ser algún día. Por lo tanto, se plantea la necesidad de recalibrar la mentalidad y ver la IA como una tecnología normal.
La comunidad de la IA está muy dividida sobre esta afirmación. Algunos insisten en que ya es hora de que se revele la verdad, mientras que otros discrepan vehementemente con la idea de que la IA es meramente una tecnología común.
Este análisis de un avance innovador en IA forma parte de la cobertura continua de Evox News sobre lo último en IA, que incluye la identificación y explicación de diversas complejidades impactantes de la IA.
La IA como tecnología común
Primero, se requieren algunos fundamentos para preparar el escenario para esta importante discusión.
Se está llevando a cabo una gran cantidad de investigación para seguir avanzando en la IA. El objetivo general es alcanzar la inteligencia artificial general (IAG) o incluso la posibilidad de lograr la superinteligencia artificial (ISA).
La IAG se considera una IA a la par del intelecto humano y puede igualar nuestra inteligencia. La ISA es una IA que ha superado el intelecto humano y sería superior en muchos, si no en todos, los aspectos factibles. La idea es que la ISA podría superar a los humanos en todos los sentidos.
Aún no hemos alcanzado la IAG.
De hecho, se desconoce si alcanzaremos la IAG, o si tal vez la IAG será alcanzable en décadas o quizás siglos a partir de ahora. Las fechas de consecución de la IAG que circulan varían enormemente y no están respaldadas por ninguna evidencia creíble o lógica férrea. La ISA está aún más lejos de donde estamos actualmente con la IA convencional.
Surge una pregunta intrigante sobre el estado de la IA convencional.
¿Es la IA convencional simplemente lo mismo que otras tecnologías «normales», como a la par de Internet o la electricidad?
Observe que la comparación de la IA se está haciendo con tecnologías tremendas y transformadoras, incluido el advenimiento de Internet y el descubrimiento y aprovechamiento de la electricidad. El punto es que la palabra «normal» debe nivelarse como tecnología de gran tamaño que ha sido totalmente disruptiva y un gran cambio en la forma en que opera la humanidad. No caiga en la trampa mental de interpretar la palabra «normal» como algo similar a una tostadora normal o una trampa para ratones normal.
Reflexione sobre si cree que la IA es normal o extraordinariamente extraordinaria.
El argumento a favor de la IA como tecnología común
Suponga, en aras del debate, que usted o alguien que conoce está del lado de creer que la IA es una tecnología normal.
¿Cómo puede alguien llegar a esa conclusión?
Una perspectiva es que la IA convencional se ejecuta en servidores informáticos cotidianos, utiliza aspectos cotidianos de entradas y salidas, y emplea algoritmos ingeniosamente ideados, pero todo esto está dentro de la artesanía humana. Todo sigue siendo bits y bytes. No hay encantamientos mágicos involucrados. Ningún vudú.
Sin embargo, muchos parecen haber convertido la percepción pública de la IA contemporánea en un alboroto, tal vez incluso en una farsa. Algunos expertos en IA han contribuido a esta sensación de aura de otro mundo al insistir en que ven «chispas» de sensibilidad y conciencia en la IA generativa y los grandes modelos de lenguaje (LLM). Lamentablemente, esas visiones grandiosas han sido desacreditadas.
Los expertos en IA de línea dura que están hartos de la falsedad y las proclamaciones exageradas sobre la IA de la era moderna están declarando que ya es suficiente. Es hora de trazar una línea en la arena. Dejemos de lado todas estas tonterías sobre la IA que camina sobre el agua y salta edificios altos de un solo salto. Seamos realistas.
Trazando una línea en la arena
Un documento publicado recientemente el 15 de abril de 2025, titulado «La IA como tecnología normal», que fue coautorado por los investigadores Arvind Narayanan y Sayash Kapoor, bajo los auspicios de la Universidad de Columbia y su Knight First Amendment Institute, hizo estos puntos destacados (extractos):
«Articulamos una visión de la inteligencia artificial (IA) como tecnología normal. Ver la IA como normal no es subestimar su impacto, incluso las tecnologías transformadoras de propósito general como la electricidad e Internet son «normales» en nuestra concepción».
«Pero está en contraste con las visiones utópicas y distópicas del futuro de la IA que tienen una tendencia común a tratarla como una especie separada, una entidad altamente autónoma, potencialmente superinteligente».
«La declaración «La IA es tecnología normal» es tres cosas: una descripción de la IA actual, una predicción sobre el futuro previsible de la IA y una prescripción sobre cómo debemos tratarla».
«Vemos la IA como una herramienta que podemos y debemos seguir controlando, y argumentamos que este objetivo no requiere intervenciones políticas drásticas ni avances técnicos. No creemos que ver la IA como una inteligencia humana sea actualmente preciso o útil para comprender sus impactos sociales, ni es probable que lo sea en nuestra visión del futuro».
Su punto de vista ha provocado un avispero. Si usted es alguien que cree ardientemente que todos los titulares extravagantes que agitan el alarmismo, el gaslighting y los riesgos existenciales sin aliento de la IA deben detenerse, es probable que abrace y aplauda la afirmación de que la IA es una tecnología normal. Otros no estarían de acuerdo con la afirmación y afirmarían que esto no es más que una forma de gaslighting sobre el presunto gaslighting sobre la IA.
Como aparte, el documento entra en gran detalle sobre su justificación de que la IA es una tecnología normal y es posible que desee leer el documento completo si este es un asunto de interés directo para usted.
El peligro de la complacencia
Una preocupación sobre la concepción de la IA como tecnología normal es que esto podría deslizar a la sociedad hacia una apariencia de complacencia sobre la IA.
Permítanme explicar esto brevemente. En este momento, la charla de que la IA posiblemente pueda curar el cáncer y, mientras tanto, que la IA podría acabar con la humanidad proporciona un enfoque potente sobre lo que es la IA y hacia dónde se dirige la IA. Claro, tal vez sea una hipérbole, pero la única forma de lograr que la sociedad esté atenta a menudo requiere exagerar.
Si todos acordamos decir en adelante que la IA es una tecnología normal, tal vez la IA ya no acapare titulares y ya no gane la atención de los responsables políticos, los reguladores y otras partes interesadas. Relegaremos la IA al reino de los técnicos. Los impactos sociales inminentes sin duda no se explorarán, ya que los técnicos de IA no están pensando en esos asuntos importantes o asumen que todo se resolverá una vez que la IA resurja una vez más en la conciencia global.
Eso podría ser como dejar que el caballo salga del establo. Podría haber mantenido el caballo en el establo o al menos haberse preparado para liberar inteligentemente al caballo, pero en cambio, mantuvo la cabeza profundamente enterrada en la arena (dos metáforas por el precio de una).
El argumento a favor de los impactos anormales
Hay otro giro sobre por qué la premisa de que la IA es una tecnología normal parece preocupante.
Primero, sigamos adelante y coloquemos el asunto de la IAG y la ISA completamente fuera de nuestra competencia. Simplemente sigamos con la suposición de que la IAG y la ISA no están en la imagen. Solo la IA convencional tal como la conocemos hoy está dentro de la imagen grande.
Un argumento es que los impactos incluso de la IA convencional son, en cierto sentido, anormales. Puede proceder a asumir que la IA es una tecnología normal, pero los impactos sociales van más allá de los de otras tecnologías normales. Los impactos son anormales.
Hay tecnologías normales que conducen a impactos normales. Eso está bien. El caso es que hay tecnologías normales que conducen a impactos anormales. Agrupar la IA en la clasificación de tecnología normal puede llevar falsamente a pensar que la IA solo tiene impactos normales.
Futuros previsibles que no dan en el blanco
En los puntos extractados con respecto al caso proposicional de la IA como tecnología normal, algunos inquisidores han notado una afirmación decisiva. El trato es este. La premisa incluye un fundamento crucial sobre la predicción del futuro previsible de la IA (nota: he puesto en cursiva esa parte aquí para que pueda observarla fácilmente aquí):
«La declaración ‘La IA es tecnología normal’ es tres cosas: una descripción de la IA actual, una predicción sobre el futuro previsible de la IA, y una prescripción sobre cómo debemos tratarla» (ibid).
Bueno, a lo largo de la historia ha habido numerosos casos de predicciones sobre los llamados futuros previsibles que estaban significativamente fuera de lugar. El resultado es que el futuro previsible para la IA convencional podría ser que sigamos avanzando y veamos avances modestos que no sean especialmente sorprendentes. Lo mismo de siempre. Si ese es el caso, la normalidad de la supuesta tecnología normal de la IA conserva su normalidad.
Pero si avanzamos la IA de manera más demostrable, haciéndolo dentro del futuro previsible, el potencial de que la IA vaya mucho más allá del control humano convencional podría sorprendernos. Piénselo de esta manera. Imagine que todos acordamos tratar la IA convencional como una tecnología normal y aplicamos el escrutinio normal en consecuencia. Entonces, aparentemente de la nada, y rompiendo nuestras suposiciones sobre el futuro previsible, la IA de repente se vuelve más grande de lo que podemos manejar.
Apostar fuertemente por el presunto futuro previsible de la IA podría ser una apuesta bastante arriesgada.
Menoscabo de las intervenciones drásticas
También ha habido acidez sobre los aspectos de bajo perfil de la anulación de la voluntad o la preparación para emplear posibles intervenciones drásticas asociadas con la IA convencional. Como se señaló en uno de los puntos extractados (parte en cursiva aquí para facilitar la visualización):
«Vemos la IA como una herramienta que podemos y debemos seguir controlando, y argumentamos que este objetivo no requiere intervenciones políticas drásticas ni avances técnicos» (ibid).
Si establecemos una mentalidad de que no se necesitarán intervenciones políticas drásticas, ¿menoscabamos las posibilidades de detectar la necesidad de intervenciones drásticas y, por lo tanto, retrasamos o no identificamos y adoptamos tales intervenciones de manera oportuna?
Tal vez la IA convencional se infunda en sistemas críticos de los que todos dependemos para la existencia y la supervivencia diarias. La IA colocada en esa postura nos pone en riesgo. Podría ser que necesitemos realizar alguna forma de intervención política drástica. Pero la perspectiva de la tecnología normal posiblemente nos ha convencido de que no se necesita nada drástico y que, de lo contrario, las intervenciones convencionales serán suficientes.
Predicciones de la IAG en el horizonte
Relacionado con el asunto del futuro previsible de la IA, hay una multitud de predicciones de luminarias de la IA de que la IAG se alcanzará a corto plazo, como de 2027 a 2030, y las encuestas de especialistas en IA generalmente han sugerido que 2040 es una fecha de IAG considerada «casi seguramente para entonces».
¿Considera que 2027 a 2030 está dentro de la rúbrica de un futuro previsible o está fuera de ese rango?
En otras palabras, muchos en la comunidad de la IA creen que estamos a solo unos años de la IAG o, como máximo, a una docena de años. Ciertamente puede estar en desacuerdo con esas predicciones. Muchos lo hacen. Otros creen en esas fechas con fervor.
El problema va de esta manera. La IAG tendría un impacto consecuente tan enorme que no podemos incluir sensatamente la IAG en el grupo de la IA convencional. Y para aclarar, estamos estipulando que la IAG no es sobrehumana, y «solo» a la par del intelecto humano. Esto deja de lado la confusión de la IA sobrehumana.
Reflexiones sobre el debate de la normalidad
Seguro que sería bueno si pudiéramos tener nuestro pastel y comérnoslo también. Las circunstancias serían que podríamos mantener dos dimensiones fundamentales en nuestras cabezas al mismo tiempo, en un esfuerzo equilibrado:
(1) Interpretamos la IA convencional como considerada «tecnología normal» y lo hacemos en un estado estrictamente puro, manteniendo a distancia esos grandes esquemas de IA que se convierten en IAG o ISA.
(2) Mientras tanto, todavía consideramos la posibilidad de alcanzar la IAG (o posiblemente la ISA) y anticipamos y nos preparamos para esa posibilidad, pero no hasta el punto de que sobreinflamos el primer punto y nos hundimos en no centrarnos adecuadamente en la IA convencional (la «tecnología normal»).
¿Podemos hacer eso?
Es una tarea no normal extraordinariamente desafiante.
Insights de Evox News: Cómo la normalización de la IA puede impactar tu negocio
La controversia sobre si la Inteligencia Artificial (IA) debe considerarse una tecnología «normal» o algo extraordinario tiene implicaciones significativas para las empresas. Aquí exploramos cómo esta perspectiva puede afectar a tu negocio:
Inversión y Estrategia: Si la IA se percibe como «normal», las empresas podrían ser más cautelosas en sus inversiones, tratándola como cualquier otra tecnología. Esto podría llevar a una adopción más lenta y menos ambiciosa, perdiendo oportunidades de innovación disruptiva. Por otro lado, si se considera extraordinaria, las empresas podrían sobre invertir, persiguiendo soluciones complejas que no se alinean con sus necesidades reales.
Ventaja Competitiva: Una visión «normalizada» de la IA podría resultar en que las empresas no aprovechen completamente su potencial para obtener una ventaja competitiva. Ignorar la capacidad de la IA para automatizar procesos, personalizar la experiencia del cliente o analizar datos complejos podría dejarlas atrás frente a competidores más innovadores.
Riesgos y Regulación: Considerar la IA como «normal» podría llevar a una subestimación de los riesgos asociados, como sesgos algorítmicos, problemas de privacidad o seguridad. Esto podría resultar en problemas legales, daños a la reputación y pérdida de confianza del cliente. Es crucial mantener una perspectiva equilibrada, reconociendo tanto el potencial como los riesgos, y prepararse para futuras regulaciones.
Innovación y Talento: Si las empresas adoptan una visión «normalizada», podrían tener dificultades para atraer y retener talento especializado en IA. Los profesionales más capacitados buscan desafíos innovadores y la oportunidad de trabajar en proyectos de vanguardia. Una perspectiva que minimiza el potencial de la IA podría resultar en una fuga de talento y una menor capacidad de innovación.
* Adaptación al Cambio: Independientemente de cómo se perciba la IA, las empresas deben estar preparadas para adaptarse a los cambios rápidos en el campo. Monitorear las tendencias, experimentar con nuevas tecnologías y capacitar a los empleados son esenciales para mantenerse al día y aprovechar al máximo el potencial de la IA