Clock IA > Límites de la IA: ¿y si la carrera por la potencia ya no fuera suficiente para hacerlas realmente inteligentes?
Límites de la IA: ¿y si la carrera por la potencia ya no fuera suficiente para hacerlas realmente inteligentes?

Límites de la IA: por qué más grande no siempre significa (todavía) más inteligente

Los modelos de inteligencia artificial nos sorprenden con sus avances, pero su capacidad para "razonar" podría pronto estancarse. Te explicamos por qué, y es un poco más complicado que simplemente darles más datos.

¿Has visto los logros de ChatGPT y compañía, capaces de escribir poemas, generar código o mantener una conversación casi humana? Impresionante, ¿verdad? Durante mucho tiempo se creyó que para hacer que las inteligencias artificiales (IA) fueran más inteligentes, bastaba con alimentarlas con cada vez más datos y aumentar el tamaño de sus "cerebros" (sus parámetros, en términos técnicos). Una especie de sobrealimentación intelectual. Pero he aquí que un estudio reciente viene a agitar las aguas de esta carrera desmesurada: ¿y si, para el razonamiento complejo, esta estrategia estuviera llegando a sus límites?

23/05/2025 03:02 Jérôme

¿La IA, esa alumna que aprende (demasiado) rápido?

Desde hace algunos años, el mundo de la IA vive una auténtica revolución gracias a los grandes modelos de lenguaje (LLM). Imagínalos como cerebros digitales gigantescos, entrenados con cantidades astronómicas de textos y datos extraídos de Internet. Cuanto más aumentamos su tamaño (el número de "parámetros", que son como las conexiones entre neuronas en nuestro cerebro) y más datos les proporcionamos, mejor se vuelven en todo tipo de tareas. Esto es lo que se conoce como las "leyes de escala" (scaling laws): cuanto más grande, mejor funciona. Simple y llanamente.

Pero, ¿son estos modelos realmente expertos en lógica? No tan rápido, según un análisis detallado de Epoch AI, un instituto de investigación especializado. Si bien las IA destacan en reconocer patrones o generar texto verosímil, el razonamiento verdadero, ese que requiere seguir varios pasos lógicos para resolver un problema complejo, es harina de otro costal y aquí nos enfrentamos a una de las limitaciones de la IA.

El iPhone de 2027: ¿Está Apple preparando su revolución entre vidrio total y pantalla plegable?

El razonamiento, ese quebradero de cabeza incluso para las IA

Para evaluar esta capacidad de "pensar" en lugar de simplemente "repetir", los investigadores utilizan pruebas específicas. Una de ellas, bastante temida, se llama el benchmark MATH. Imagina una serie de problemas matemáticos complejos, del nivel de un examen de admisión. Pues bien, incluso nuestras IA más avanzadas aún tienen dificultades para destacar en ellos.

El estudio de Epoch AI, al analizar el rendimiento en este tipo de pruebas, sugiere que las mejoras espectaculares observadas hasta ahora en el razonamiento, gracias al aumento del tamaño de los modelos y de los datos, podrían empezar a ralentizarse. En otras palabras, seguir "hinchando" las IA ya no sería suficiente para hacerlas significativamente mejores en resolver problemas que requieren perspicacia.

¿Más datos, mejor IA? No es tan sencillo...

Entonces, ¿por qué este posible frenazo? La explicación que propone Epoch AI es sutil. No es tanto la cantidad bruta de datos lo que sería problemático, sino su calidad y relevancia para enseñar razonamiento. Es como si quisieras entrenar a un detective: hacerle leer la guía telefónica mundial (¡muchos datos!) sería menos efectivo que hacerle estudiar casos complejos cuidadosamente seleccionados (datos de calidad y específicos).

Los investigadores hablan de "datos eficaces". Parece que, para las tareas de razonamiento, los modelos actuales ya han absorbido una buena parte de la información realmente útil presente en los inmensos corpus de datos textuales generales. Seguir proporcionándoles más del mismo tipo solo aportaría mejoras marginales. Algo así como un estudiante que ya ha leído todos los manuales esenciales y al que solo se le dieran artículos de segunda categoría.

PINMAP: la IA que enseña a los robots a dejar de estrellarse contra todo (transparente)

El muro del "1000 veces más"

La cifra que da vértigo, mencionada por Epoch AI, es que para alcanzar un nivel de razonamiento realmente elevado (por ejemplo, un puntaje del 90% en el famoso benchmark MATH), se necesitarían potencialmente entre 100 y 1000 veces más recursos (cálculo y datos) de los que se invierten actualmente. Un esfuerzo colosal, que plantea dudas sobre la sostenibilidad y eficacia del enfoque actual basado únicamente en el escalamiento.

¡Esto no significa que las IA vayan a estancarse en todos los ámbitos, ni mucho menos! Pero para el santo grial del razonamiento complejo, el camino parece más arduo y costoso de lo previsto si nos limitamos a los métodos actuales. Como señala Tamay Besiroglu de Epoch AI, citado en un artículo de TechCrunch que recoge el estudio, podríamos haber superado ya el "punto óptimo" donde añadir más datos en relación al tamaño del modelo era lo más beneficioso para el razonamiento.

¿Las IA, las nuevas reinas del hacking? Concursos revelan su sorprendente potencial ofensivo

Lejos de ser el canto del cisne de la inteligencia artificial, este análisis de Epoch AI nos invita a ser más astutos y refinados. En lugar de apostar únicamente por modelos cada vez más gigantescos y una avalancha de datos indiferenciados, la clave para lograr IAs verdaderamente "razonadoras" podría estar en otro lugar: en arquitecturas de modelos más ingeniosas, datos de entrenamiento de mucha mejor calidad y específicamente diseñados para el razonamiento, o quizás en enfoques radicalmente nuevos.

En resumen, si nuestras IA ya son unas charlatanas impresionantes, convertirlas en auténticos Sherlock Holmes digitales requerirá sin duda algo más que una simple indigestión de datos. El desafío está planteado, y es bastante emocionante, ¿no crees?

Fuentes:

https://epoch.ai/gradient-updates/how-far-can-reasoning-models-scale

https://techcrunch.com/2025/05/12/improvements-in-reasoning-ai-models-may-slow-down-soon-analysis-finds/

Jerome

Experto en desarrollo web, SEO e inteligencia artificial, mi experiencia práctica en la creación de sistemas automatizados se remonta a 2009. Hoy en día, además de redactar artículos para descifrar la actualidad y los desafíos de la IA, diseño soluciones a medida e intervengo como consultor y formador para una IA ética, eficiente y responsable.

Facebook - X (Twitter) - Linkedin
Clock IA > Límites de la IA: ¿y si la carrera por la potencia ya no fuera suficiente para hacerlas realmente inteligentes?