Octubre, 2024
La Real Academia Sueca ha premiado a los investigadores John Hopfield (Universidad de Princeton, Estados Unidos) y Geoffrey Hinton (Universidad de Toronto, Canadá), por sus “descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales”.
“Este año premiamos el aprendizaje de las máquinas”.
Con estas palabras, el secretario general de la Academia Sueca de Ciencias, Hans Ellegren, dio a conocer a los ganadores del Nobel de Física 2024, que ha ido a parar a quienes han sentado las bases para que “las máquinas aprendan” y con ello impulsar el renacer de inteligencia artificial.
Se trata de los profesores John Hopfield, de la Universidad de Princeton (Estados Unidos), y Geoffrey Hinton, de la Universidad de Toronto (Canadá).
Hopfield creó una memoria asociativa en 1982, la cual podía almacenar y reconstruir imágenes y otros tipos de patrones en los datos. Hinton, por su parte, desarrolló un método que permite a una máquina encontrar propiedades en los datos de forma autónoma y, por lo tanto, realizar tareas como identificar elementos específicos en imágenes.
De acuerdo al Comité Nobel de Física, se premia a ambos por sus “descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales”. Este campo está revolucionando la ciencia, la ingeniería y, en general, la vida cotidiana.
“Los hallazgos de los galardonados este año en la categoría de Física se sitúan en los cimientos de la ciencia física”, destaca el jurado. “Han demostrado que existe una forma completamente nueva de usar los ordenadores para ayudarnos a abordar los múltiples desafíos a los que se enfrenta nuestra sociedad. Gracias a su trabajo, la humanidad cuenta ahora con una nueva herramienta en su maletín, que podemos emplear para un buen propósito”.
De redes neuronales naturales a artificiales
Cuando hablamos de IA solemos referirnos al aprendizaje automático mediante redes neuronales artificiales. Esta tecnología se inspiró originalmente en la estructura y redes neuronales naturales del cerebro.
Las redes neuronales naturales tienen neuronas que envían señales a través del proceso de la sinapsis. Cuando aprendemos cosas, las conexiones entre algunas neuronas se hacen más fuertes, mientras que otras, más débiles.
En una red neuronal artificial, esas neuronas cerebrales están representadas por nodos, que son codificados con valores diferentes. Estos están conectados entre sí y también se influyen mutuamente a través de conexiones (como las sinapsis), que pueden reforzarse o debilitarse.
La red se entrena, por ejemplo, desarrollando conexiones más fuertes entre nodos que tienen valores altos simultáneamente. Los galardonados de este año han realizado importantes trabajos con este tipo de redes neuronales artificiales desde la década de 1980.
La red de Hopfield
John Hopfield, de la Universidad de Princeton (EE. UU.), inventó una red que utiliza un método para guardar y recrear patrones. Podemos imaginar los nodos como píxeles. La llamada red de Hopfield utiliza la física que describe las características de un material debido a su espín atómico, una propiedad que convierte a cada átomo en un pequeño imán.
La red en su conjunto se describe de forma equivalente a la energía en un sistema de espín dentro de la física, y se entrena encontrando valores para las conexiones entre los nodos de forma que las imágenes guardadas tengan una energía baja.
Cuando la red de Hopfield recibe una imagen incompleta o distorsionada, recorre metódicamente los nodos y actualiza sus valores para que la energía de la red disminuya. De este modo, la red trabaja paso a paso para encontrar la imagen guardada que más se parece a esa imperfecta.
Hinton usa la máquina de Boltzmann
El profesor Geoffrey Hinton, de la Universidad de Toronto (Canadá), utilizó la red de Hopfield como base para una nueva red que utiliza un método diferente: la máquina de Boltzmann. Esta puede aprender a reconocer elementos característicos en un determinado tipo de datos. Hinton utilizó herramientas de la física estadística, la ciencia de los sistemas construidos a partir de muchos componentes similares.
La máquina se entrena alimentándola con ejemplos que tienen muchas probabilidades de aparecer cuando se pone en marcha. La máquina de Boltzmann puede utilizarse para clasificar imágenes o crear nuevos ejemplos del tipo de patrón sobre el que se ha entrenado. Hinton se ha basado en este trabajo, ayudando a iniciar el explosivo desarrollo actual del aprendizaje automático.
“El trabajo de los dos galardonados ya ha sido de lo más beneficioso. En física utilizamos redes neuronales artificiales en una amplia gama de áreas, como el desarrollo de nuevos materiales con propiedades específicas”, ha destacado Ellen Moons, presidenta del Comité Nobel de Física.
El estadounidense Hopfield nació en 1933 en Chicago, se doctoró en 1958 en la Universidad de Cornell (Nueva York) y ahora es profesor emérito en Princeton. Por su parte, Hinton nació en 1947 en Londres (Reino Unido), se doctoró en 1978 en la Universidad de Edimburgo y, tras trasladarse a Canadá, actualmente ejerce en la Universidad de Toronto. (Redacción SdE / Agencia SINC)
▪️◾▪️
John Hopfield y Geoffrey Hinton, pioneros en redes neuronales e inteligencia artificial
Aaron J. Snoswell
El Premio Nobel de Física 2024 ha sido concedido a los científicos John Hopfield y Geoffrey Hinton “por descubrimientos e invenciones fundacionales que permiten el aprendizaje automático con redes neuronales artificiales”.
Inspirándose en nociones de la física y la biología, Hopfield y Hinton desarrollaron sistemas informáticos capaces de memorizar y aprender de patrones en los datos. Aunque nunca colaboraron directamente, se basaron en el trabajo del otro para desarrollar las bases del actual auge del aprendizaje automático y la inteligencia artificial (IA).
¿Qué son las redes neuronales?
Las redes neuronales artificiales están detrás de gran parte de la tecnología de IA que utilizamos hoy en día.
De la misma manera que nuestro cerebro tiene células neuronales unidas por sinapsis, las redes neuronales artificiales tienen neuronas digitales conectadas en varias configuraciones. Cada neurona individual no hace gran cosa. La magia reside en el patrón y la fuerza de las conexiones entre ellas.
Las neuronas de una red neuronal artificial se “activan” mediante señales de entrada. Estas activaciones se transmiten en cascada de una neurona a otra de forma que pueden transformar y procesar la información de entrada. Como resultado, la red puede llevar a cabo tareas computacionales como la clasificación, la predicción y la toma de decisiones.
La mayor parte de la historia del aprendizaje automático ha consistido en encontrar formas cada vez más sofisticadas de formar y actualizar estas conexiones entre neuronas artificiales.
Mientras que la idea de enlazar sistemas de nodos para almacenar y procesar información procede de la biología, las matemáticas utilizadas para formar y actualizar estos enlaces proceden de la física.
Redes que recuerdan
John Hopfield (nacido en 1933) es un físico teórico estadounidense que realizó importantes contribuciones a lo largo de su carrera en el campo de la física biológica. Sin embargo, el premio Nobel de Física le ha sido concedido por su trabajo en el desarrollo de las redes de Hopfield en 1982.
Las redes de Hopfield fueron uno de los primeros tipos de redes neuronales artificiales. Inspirados en principios de la neurobiología y la física molecular, estos sistemas demostraron por primera vez cómo un ordenador podía utilizar una “red” de nodos para recordar y recuperar información.
Las redes desarrolladas por Hopfield podían memorizar datos (como una colección de imágenes en blanco y negro). Estas imágenes podían “recordarse” por asociación cuando se le pedía a la red una imagen similar.
Aunque de uso práctico limitado, las redes de Hopfield demostraron que este tipo de redes neuronales artificiales podían almacenar y recuperar datos de formas novedosas. Sentaron las bases para los trabajos posteriores de Hinton.
Máquinas que pueden aprender
Geoff Hinton (nacido en 1947), a veces considerado uno de los padrinos de la IA, es un informático británico-canadiense que ha realizado una serie de importantes contribuciones a este campo. En 2018, junto con Yoshua Bengio y Yann LeCun, fue galardonado con el Premio Turing (el más alto honor en ciencias de la computación) por sus esfuerzos para avanzar en el aprendizaje automático en general y, específicamente, en una rama del mismo llamada aprendizaje profundo.
El Premio Nobel de Física, sin embargo, se le concede concretamente por su trabajo con Terrence Sejnowski y otros colegas en 1984, desarrollando máquinas de Boltzmann.
Se trata de una extensión de la red de Hopfield que demostró la idea del aprendizaje automático: un sistema que permite a un ordenador aprender no de un programador, sino de ejemplos de datos. Basándose en ideas de la dinámica energética de la física estadística, Hinton demostró cómo este primer modelo de ordenador generativo podía aprender a almacenar datos a lo largo del tiempo si se le mostraban ejemplos de cosas que recordar.
La máquina de Boltzmann, al igual que la red de Hopfield, no tuvo aplicaciones prácticas inmediatas. Sin embargo, una forma modificada (llamada máquina de Boltzmann restringida) resultó útil en algunos problemas aplicados.
Más importante fue el avance conceptual de que una red neuronal artificial podía aprender de los datos. Hinton siguió desarrollando esta idea. Más tarde publicó influyentes artículos sobre retropropagación (el proceso de aprendizaje utilizado en los modernos sistemas de aprendizaje automático) y redes neuronales convolucionales (el principal tipo de red neuronal utilizado hoy en día para los sistemas de IA que trabajan con datos de imagen y vídeo).
¿Por qué este premio, ahora?
Las redes de Hopfield y las máquinas de Boltzmann parecen poca cosa si las comparamos con las proezas actuales de la IA. La red de Hopfield contenía sólo 30 neuronas (intentó hacer una con 100 nodos, pero era demasiado para los recursos informáticos de la época), mientras que sistemas modernos como ChatGPT pueden tener millones. Sin embargo, el Nobel subraya lo importantes que fueron estas primeras contribuciones al campo.
Aunque el rápido progreso reciente de la IA —que la mayoría conocemos por sistemas de IA generativa como ChatGPT— podría parecer una reivindicación de los primeros defensores de las redes neuronales, Hinton al menos ha expresado su preocupación. En 2023, tras abandonar su puesto de una década en la división de IA de Google, dijo que estaba asustado por el ritmo de desarrollo y se unió a la creciente multitud de voces que piden una regulación más proactiva de la IA.
Tras recibir el premio Nobel, Hinton aseguró que la IA será “como la Revolución Industrial, pero en lugar de nuestras capacidades físicas, va a superar nuestras capacidades intelectuales”. También señaló que aún le preocupa que las consecuencias de su trabajo puedan ser “sistemas más inteligentes que nosotros que acaben tomando el control”. (Este artículo fue publicado originalmente en inglés).