La caja negra de las IA
Los sistemas de inteligencia artificial basados en redes neuronales (como ChatGPT, Claude, DeepSeek o Gemini) son extraordinariamente potentes. Pero su funcionamiento interno sigue siendo en gran medida un misterio. Un grupo de físicos de la Universidad de Harvard quiere desentrañar la caja negra de las IA. Para ello, desarrollaron un modelo matemático simplificado del aprendizaje en redes neuronales. Puede analizarse matemáticamente utilizando las herramientas de la física estadística.
Es un laboratorio teórico controlado para investigar los mecanismos fundamentales de las redes neuronales. Comprender estos sistemas podría contribuir al diseño de sistemas de inteligencia artificial más eficientes y fiables. Es algo parecido a cuando Kepler describió las leyes que rigen el movimiento de los planetas. «Las leyes de la gravedad de Newton se descubrieron identificando primero leyes de escala entre los periodos orbitales de los planetas y sus radios». Lo explica Alexander Atanasov, estudiante de física teórica de Harvard.

Redes neuronales
Kepler formuló sus leyes observando el movimiento planetario, sin comprender del todo los mecanismos que lo explican. Sin embargo, ese trabajo resultó crucial. Posteriormente permitió a Newton descubrir la gravedad. Eso condujo a una comprensión mucho más profunda del universo.
Hay varias leyes empíricas que describen el comportamiento de las redes neuronales. Pero carecemos de una especie de ‘teoría de la gravedad’ que explique por qué se comportan de esa manera.
Los modelos de aprendizaje profundo no son algoritmos escritos a mano como un conjunto de reglas. No se diseñan manualmente. Se parecen mucho más a un organismo que se cultiva en un laboratorio. Los chatbots de IA generativa se basan en redes neuronales. Es una tecnología que, de forma muy lejana, se asemeja al funcionamiento de un cerebro biológico. Están compuestos por numerosas unidades de procesamiento pequeñas. Son neuronas artificiales conectadas entre sí en una red compleja. A medida que aumenta el número de componentes, la complejidad se incrementa rápidamente.

Entendiendo el caos
Los sistemas como ChatGPT operan en espacios con miles o incluso millones de variables. Dificulta enormemente un análisis matemático exacto. Aquí resultan útiles las ideas de la física estadística. En datos de muy alta dimensionalidad, aparecen de forma natural pequeñas variaciones aleatorias, conocidas como fluctuaciones estadísticas. Sistemas muy complejos pueden mostrar un comportamiento a gran escala relativamente sencillo.
El modelo matemático creado podría tener otra utilidad. Sería punto de partida para comprender cómo se comporta el aprendizaje en sistemas de muy alta dimensionalidad. Ahora se pueden identificar qué aspectos del aprendizaje son genéricos y cuáles dependen de los detalles de un modelo específico. La caja negra de las IA ha empezado a entenderse. Lo que viene después podría ser aún más sorprendente.