La Inteligencia Artificial Da un Salto Evolutivo: El Aprendizaje Continuo
“Una vez que dejas de aprender, empiezas a morir”. -Albert Einstein
El ritmo de avance de la inteligencia artificial (IA) en la actualidad es asombroso.
En los últimos meses, ha surgido un nuevo y emocionante paradigma (modelos de razonamiento basados en el cálculo en tiempo de inferencia), que abre un horizonte completamente nuevo para las capacidades de la IA.
Se percibe una sensación de crescendo en el ambiente. La Inteligencia Artificial General (IAG) parece estar en boca de todos.
«Se vislumbran sistemas que apuntan a la IAG», escribió el mes pasado Sam Altman, CEO de OpenAI. «El crecimiento económico que tenemos por delante parece asombroso, y ahora podemos imaginar un mundo donde curemos todas las enfermedades y podamos realizar plenamente nuestro potencial creativo».
O, como lo expresó recientemente Dario Amodei, CEO de Anthropic: «Lo que he visto dentro y fuera de Anthropic en los últimos meses me ha llevado a creer que estamos en camino de tener sistemas de IA de nivel humano que superen a los humanos en todas las tareas en un plazo de 2 a 3 años».
Sin embargo, la IA actual sigue careciendo de una capacidad básica que cualquier sistema inteligente debería tener.
Muchos actores de la industria ni siquiera reconocen que esta deficiencia existe, porque el enfoque actual para construir sistemas de IA se ha vuelto tan universal y arraigado. Pero hasta que no se aborde, la verdadera IA de nivel humano seguirá siendo esquiva.
¿Cuál es esta capacidad que falta? La capacidad de seguir aprendiendo.
¿Qué queremos decir con esto?
Los sistemas de IA actuales pasan por dos fases distintas: entrenamiento e inferencia.
Primero, durante el entrenamiento, a un modelo de IA se le muestra una gran cantidad de datos a partir de los cuales aprende sobre el mundo. Luego, durante la inferencia, el modelo se pone en uso: genera resultados y completa tareas basándose en lo que aprendió durante el entrenamiento.
Todo el aprendizaje de una IA ocurre durante la fase de entrenamiento. Una vez finalizado el entrenamiento, los pesos del modelo de IA se vuelven estáticos. Aunque la IA se expone a todo tipo de nuevos datos y experiencias una vez que se despliega en el mundo, no aprende de estos nuevos datos.
Para que un modelo de IA adquiera nuevos conocimientos, normalmente debe ser entrenado de nuevo desde cero. En el caso de los modelos de IA más potentes de la actualidad, cada nueva ronda de entrenamiento puede llevar meses y costar cientos de millones de dólares.
Tómese un momento para reflexionar sobre lo peculiar (y subóptimo) que es esto. Los sistemas de IA actuales no aprenden sobre la marcha. No pueden incorporar nueva información al instante para mejorarse continuamente o adaptarse a las circunstancias cambiantes.
En este sentido, la inteligencia artificial sigue siendo bastante diferente y menos capaz que la inteligencia humana. La cognición humana no se divide en fases separadas de «entrenamiento» e «inferencia». Por el contrario, los humanos aprenden continuamente, incorporando nueva información y comprensión en tiempo real. (Se podría decir que los humanos están constantemente y simultáneamente haciendo tanto entrenamiento como inferencia).
¿Qué pasaría si pudiéramos eliminar la torpe y rígida distinción en la IA entre entrenamiento e inferencia, permitiendo que los sistemas de IA aprendan continuamente de la misma manera que lo hacen los humanos?
Este concepto básico se conoce con muchos nombres diferentes en la literatura de la IA: aprendizaje continuo, aprendizaje permanente, aprendizaje incremental, aprendizaje en línea.
Durante mucho tiempo ha sido un objetivo de los investigadores de la IA, y durante mucho tiempo ha permanecido fuera de su alcance.
Recientemente ha surgido otro término para describir la misma idea: «entrenamiento en tiempo de prueba».
Como dijo recientemente Aravind Srinivas, CEO de Perplexity: «El cálculo en tiempo de prueba es actualmente solo inferencia con cadena de pensamiento. No hemos empezado a hacer entrenamiento en tiempo de prueba, donde el modelo actualiza los pesos para descubrir cosas nuevas o ingerir una tonelada de nuevo contexto, sin perder generalidad ni CI bruto. Va a ser increíble cuando eso suceda».
Quedan por resolver problemas fundamentales de investigación antes de que el aprendizaje continuo esté listo para su aplicación generalizada. Pero las startups y los laboratorios de investigación están haciendo progresos emocionantes en este frente en este mismo momento. La llegada del aprendizaje continuo tendrá profundas implicaciones para el mundo de la IA.
Soluciones Parciales y Alternativas
Cabe destacar que existen algunas soluciones alternativas para mitigar la actual incapacidad de la IA para aprender de forma continua. Tres en particular merecen ser mencionadas. Aunque cada una de ellas puede ayudar, ninguna resuelve completamente el problema.
La primera es el ajuste fino del modelo (fine-tuning). Una vez que un modelo de IA ha sido preentrenado, puede ser posteriormente ajustado con una cantidad menor de nuevos datos para actualizar incrementalmente su base de conocimientos.
En principio, ajustar un modelo de forma continua podría ser una forma de permitir que un sistema de IA incorpore nuevos aprendizajes sobre la marcha.
Sin embargo, ajustar periódicamente un modelo sigue siendo fundamentalmente un enfoque basado en lotes más que un enfoque continuo; no desbloquea el verdadero aprendizaje sobre la marcha.
Y aunque ajustar un modelo es menos intensivo en recursos que preentrenarlo desde cero, sigue siendo complejo, requiere mucho tiempo y es caro, lo que hace que sea poco práctico hacerlo con demasiada frecuencia.
Quizás lo más importante es que el ajuste fino solo funciona bien si los nuevos datos no se desvían demasiado de los datos de entrenamiento originales. Si la distribución de los datos cambia drásticamente (por ejemplo, si a un modelo se le presenta una tarea o un entorno totalmente nuevo que es diferente a todo lo que ha encontrado antes), entonces el ajuste fino puede ser víctima del desafío fundamental del olvido catastrófico (que se discute con más detalle a continuación).
La segunda solución alternativa es combinar alguna forma de recuperación con alguna forma de memoria externa: por ejemplo, la generación aumentada por recuperación (RAG) emparejada con una base de datos vectorial actualizada dinámicamente.
Estos sistemas de IA pueden almacenar nuevos aprendizajes de forma continua en una base de datos que se encuentra fuera del modelo y luego extraer información de esa base de datos cuando sea necesario. Esta puede ser otra forma de que un modelo de IA incorpore continuamente nueva información.
Pero este enfoque no escala bien. Cuantos más aprendizajes nuevos acumula un sistema de IA, más difícil se vuelve almacenar y recuperar toda esta nueva información de manera eficiente utilizando una base de datos externa. La latencia, el coste computacional, la precisión de la recuperación y la complejidad del sistema limitan la utilidad de este enfoque.
Una última forma de mitigar la incapacidad de la IA para aprender continuamente es el aprendizaje en contexto.
Los modelos de IA tienen una notable capacidad para actualizar su comportamiento y conocimiento basándose