(https://i.postimg.cc/ydpScWLr/artificial-intelligence-AI.png) (https://postimg.cc/47tdT4kz)
Los científicos chinos han creado una nueva arquitectura informática que puede entrenar modelos avanzados de inteligencia artificial (IA) consumiendo menos recursos informáticos, y esperan que algún día conduzca a la inteligencia artificial general (IAG).
Los modelos de IA más avanzados de la actualidad (sobre todo los modelos de lenguaje grande, como ChatGPT o Claude 3) utilizan redes neuronales. Se trata de conjuntos de algoritmos de aprendizaje automático dispuestos en capas para procesar datos de una manera similar al cerebro humano y sopesar diferentes opciones para llegar a conclusiones.
Los modelos de lenguaje grande están limitados actualmente porque no pueden funcionar más allá de los límites de sus datos de entrenamiento y no pueden razonar tan bien como los humanos. Sin embargo, la IAG es un sistema hipotético que puede razonar, contextualizar, editar su propio código y comprender o aprender cualquier tarea intelectual que pueda realizar un ser humano.
Hoy en día, la creación de sistemas de IA más inteligentes depende de la construcción de redes neuronales aún más grandes. Algunos científicos creen que las redes neuronales podrían conducir a la inteligencia artificial general si se amplían lo suficiente, pero esto puede resultar poco práctico, dado que el consumo de energía y la demanda de recursos informáticos también aumentarán con ella.
Otros investigadores sugieren que se necesitan arquitecturas novedosas o una combinación de diferentes arquitecturas informáticas para lograr un futuro sistema de IAG. En esa línea, un nuevo estudio publicado el 16 de agosto en la revista Nature Computational Science propone una arquitectura informática novedosa inspirada en el cerebro humano que se espera que elimine los problemas prácticos de la ampliación de las redes neuronales.
"Los investigadores de inteligencia artificial (IA) creen actualmente que el principal enfoque para construir problemas de modelos más generales es el gran modelo de IA, en el que las redes neuronales existentes se están volviendo más profundas, más grandes y más amplias. A esto lo llamamos el enfoque del gran modelo con complejidad externa", dijeron los científicos en el estudio. "En este trabajo, argumentamos que existe otro enfoque llamado modelo pequeño con complejidad interna, que se puede utilizar para encontrar un camino adecuado para incorporar propiedades ricas en neuronas para construir modelos de IA más grandes y más eficientes".
El cerebro humano tiene 100 mil millones de neuronas y casi 1.000 billones de conexiones sinápticas, y cada neurona se beneficia de una estructura interna rica y diversa, dijeron los científicos en un comunicado. Sin embargo, su consumo de energía es de solo unos 20 vatios.
Con el objetivo de imitar estas propiedades, los investigadores utilizaron un enfoque centrado en la "complejidad interna" en lugar de la "complejidad externa" de la ampliación de las arquitecturas de IA: la idea es que centrarse en hacer que las neuronas artificiales individuales sean más complejas conducirá a un sistema más eficiente y poderoso.
Construyeron una red Hodgkin-Huxley (HH) con una rica complejidad interna, donde cada neurona artificial era un modelo HH que podía escalar en complejidad interna.
El modelo de Hodgkin-Huxley es un modelo computacional que simula la actividad neuronal y muestra la mayor precisión en la captura de picos neuronales (un pulso que las neuronas usan para comunicarse entre sí), según un estudio de 2022. Tiene una alta plausibilidad para representar el patrón de activación de las neuronas reales, según muestra un estudio de 2021, y por lo tanto es adecuado para modelar una arquitectura de red neuronal profunda que tiene como objetivo replicar los procesos cognitivos humanos.
En el estudio, los científicos demostraron que este modelo puede manejar tareas complejas de manera eficiente y confiable. También demostraron que un modelo pequeño basado en esta arquitectura puede funcionar tan bien como un modelo convencional mucho más grande de neuronas artificiales.
Aunque la IAG es un hito que aún se le escapa a la ciencia, algunos investigadores dicen que es solo cuestión de años antes de que la humanidad construya el primer modelo de este tipo, aunque existen visiones contrapuestas sobre cómo llegar allí. SingularityNET, por ejemplo, ha propuesto construir una red de supercomputación que se basa en una red distribuida de diferentes arquitecturas para entrenar un futuro modelo de IAG.
Fuente:
Live Science
https://www.livescience.com/technology/artificial-intelligence/novel-chinese-computing-architecture-inspired-by-human-brain-can-lead-to-agi-scientists-say#:~:text=In%20the%20study%2C%20the%20scientists,conventional%20model%20of%20artificial%20neurons