Los modelos actuales de IA son un «callejón sin salida» para la inteligencia

Iniciado por AXCESS, Abril 01, 2025, 09:32:36 PM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.

No tienes permitido ver enlaces. Registrate o Entra a tu cuenta

Según una encuesta reciente a expertos del sector, es improbable que los enfoques actuales de la inteligencia artificial (IA) creen modelos que puedan igualar la inteligencia humana.

De los 475 investigadores de IA consultados para la encuesta, el 76 % afirmó que era "poco probable" o "muy improbable" que la ampliación de los grandes modelos lingüísticos (LLM) alcanzara la inteligencia artificial general (IAG), el hito hipotético en el que los sistemas de aprendizaje automático pueden aprender con la misma eficacia, o incluso mejor, que los humanos.

Esto supone un notable rechazo a las predicciones de la industria tecnológica que, desde el auge de la IA generativa en 2022, ha mantenido que los modelos de IA de vanguardia actuales solo necesitan más datos, hardware, energía y dinero para eclipsar la inteligencia humana.

Ahora, ante el estancamiento de los lanzamientos de modelos recientes, la mayoría de los investigadores encuestados por la Asociación para el Avance de la Inteligencia Artificial creen que las empresas tecnológicas han llegado a un punto muerto, y que el dinero no las sacará de él.

"Creo que ha sido evidente desde poco después del lanzamiento de GPT-4: las ganancias derivadas del escalamiento han sido incrementales y costosas", declaró a Live Science Stuart Russell, informático de la Universidad de California en Berkeley, quien ayudó a organizar el informe. "[Las empresas de IA] ya han invertido demasiado y no pueden permitirse admitir que cometieron un error y estar fuera del mercado durante varios años cuando tengan que reembolsar a los inversores que han invertido cientos de miles de millones de dólares. Así que solo les queda redoblar la apuesta".

Rendimientos decrecientes

Las sorprendentes mejoras de los LLM en los últimos años se deben en parte a su arquitectura de transformadores subyacente. Se trata de un tipo de arquitectura de aprendizaje profundo, creada inicialmente en 2017 por científicos de Google, que crece y aprende absorbiendo datos de entrenamiento de la información humana.

Esto permite a los modelos generar patrones probabilísticos a partir de sus redes neuronales (conjuntos de algoritmos de aprendizaje automático organizados para imitar la forma en que aprende el cerebro humano) retroalimentándolos al recibir una indicación, y sus respuestas mejoran en precisión con más datos.

Pero la continua expansión de estos modelos requiere enormes cantidades de dinero y energía. La industria de la IA generativa recaudó 56 000 millones de dólares en capital de riesgo a nivel mundial solo en 2024, gran parte de los cuales se destinaron a la construcción de enormes complejos de centros de datos, cuyas emisiones de carbono se han triplicado desde 2018.

Las proyecciones también muestran que los datos finitos generados por humanos, esenciales para un mayor crecimiento, probablemente se agotarán para finales de esta década. Una vez que esto ocurra, las alternativas serán comenzar a recopilar datos privados de los usuarios o reintroducir datos "sintéticos" generados por IA en los modelos, lo que podría ponerlos en riesgo de colapso debido a errores generados al absorber su propia información.

Pero las limitaciones de los modelos actuales probablemente no se deban solo a su alto consumo de recursos, según los expertos de la encuesta, sino a limitaciones fundamentales en su arquitectura.

"Creo que el problema fundamental de los enfoques actuales es que todos implican el entrenamiento de grandes circuitos de avance", dijo Russell. "Los circuitos tienen limitaciones fundamentales para representar conceptos. Esto implica que deben ser enormes para representar dichos conceptos, incluso de forma aproximada —esencialmente como una tabla de búsqueda exagerada—, lo que genera una gran cantidad de datos requeridos y una representación fragmentada con lagunas. Por eso, por ejemplo, los jugadores humanos comunes pueden superar fácilmente a los programas de Go "superhumanos".

El futuro del desarrollo de la IA


Todos estos obstáculos han representado importantes desafíos para las empresas que trabajan para mejorar el rendimiento de la IA, lo que ha provocado que las puntuaciones en los indicadores de evaluación se estanquen y que el rumoreado modelo GPT-5 de OpenAI nunca aparezca, según algunos encuestados.

Las suposiciones de que siempre se podrían lograr mejoras mediante el escalado también se vieron socavadas este año por la empresa china DeepSeek, que igualó el rendimiento de los costosos modelos de Silicon Valley a una fracción del coste y la potencia. Por estas razones, el 79 % de los encuestados afirmó que las percepciones sobre las capacidades de la IA no se corresponden con la realidad.

"Muchos expertos creen que esto es una burbuja", afirmó Russell. "Sobre todo cuando se ofrecen gratuitamente modelos de rendimiento razonablemente alto".

Sin embargo, esto no significa que el progreso en IA esté estancado. Se ha demostrado que los modelos de razonamiento (modelos especializados que dedican más tiempo y potencia de cálculo a las consultas) producen respuestas más precisas que sus predecesores tradicionales.

La combinación de estos modelos con otros sistemas de aprendizaje automático, especialmente una vez optimizados a escalas especializadas, es un camino prometedor, según los encuestados. Y el éxito de DeepSeek indica que hay mucho más margen para la innovación en ingeniería en el diseño de sistemas de IA. Los expertos también señalan que la programación probabilística tiene el potencial de acercarse más a la IAG que los modelos de circuitos actuales.

"La industria está apostando fuerte a que habrá aplicaciones de alto valor para la IA generativa", declaró a Live Science Thomas Dietterich, profesor emérito de informática de la Universidad Estatal de Oregón, quien contribuyó al informe. "En el pasado, los grandes avances tecnológicos requerían de 10 a 20 años para mostrar grandes resultados".

"A menudo, las primeras empresas fracasan, así que no me sorprendería que muchas de las startups de IA generativa actuales fracasaran", añadió. "Pero parece probable que algunas tengan un éxito rotundo. Ojalá supiera cuáles".

Fuente:
msn News
No tienes permitido ver enlaces. Registrate o Entra a tu cuenta
No tienes permitido ver enlaces. Registrate o Entra a tu cuenta