Los datos han llegado para quedarse y están cambiando la manera en que percibimos y tomamos decisiones en áreas como la sanidad, las relaciones sociales, la política, el medio ambiente y los negocios. La ciencia de datos está por todas partes y nos permite adquirir, procesar y extraer conocimiento a partir de grandes volúmenes de datos mediante técnicas de vanguardia heredadas del mundo de las matemáticas, la estadística, la informática, la inteligencia artificial, la economía y la salud.
Entre estas técnicas destacan las redes neuronales artificiales o modelos conexionistas. Las aplicaciones más precisas de reconocimiento de imágenes, los asistentes personales como Siri o Cortana, los traductores automáticos, los coches autónomos … se basan a menudo en modelos neuronales. Las dendritas de estas neuronas, sin embargo, se arraigan en la sabiduría que desprenden los trabajos del siglo pasado sobre cómo modelizar el funcionamiento del cerebro humano. Así pues, os proponemos dar un paseo por este cementerio de neuronas olvidadas.
Podemos fijar el punto de partida en el estudio del cerebro a finales del siglo XIX, cuando Santiago Ramón y Cajal presentó en Valencia su ley de la polarización dinámica que explicaba el funcionamiento del componente más pequeño en la estructura del cerebro: la neurona. Donald Hebb recogió el testigo durante la primera mitad del siglo XX y determinó una de las reglas citadas más comúnmente por el conexionismo, el aprendizaje Hebbiano, que especifica una regla para la modificación de las sinapsis, esto es, una regla fisiológica de aprendizaje.
La siguiente gran contribución es el trabajo de Warren McCulloch y Walter Pitts, que representa una neurona como un dispositivo binario con entradas que lo inhiben o lo excitan en función de un umbral de activación. El modelo de McCulloch-Pitts se acercaba a lo que la neurofisiología conocía en 1943 sobre la actividad sináptica neuronal y, además, permitía sintetizar alguna de las funciones lógicas del álgebra booleana que soportaban los fundamentos de la computación. Esta capacidad desató la euforia por el uso de las neuronas artificiales y dió alas a los sueños científicos. Si podíamos reproducir el comportamiento de una neurona individual, ¿por qué no podríamos implementar todo un sistema de conocimiento mediante el uso de un conjunto de estas neuronas artificiales?
Guiado por este espejismo, Alan Turing fue uno de los precursores del conectivismo allá por 1948, aunque su artículo Intelligent Machinery no vio la luz porque había sido tachado de ensayo escolar por su jefe, Sir Charles Darwin (nieto del famoso naturalista de quien suponemos no había heredado una cierta miopía científica). Otro genio de las matemáticas y padre de la informática, John Von Neumann, también sugirió que el estudio del sistema nervioso central y de las ideas conexionistas era un posible camino para mejorar los ordenadores. Así, en las postrimerías de la década de los 50 y principios de los 60, la comunidad investigadora trabajó con éxito en el diseño de tres arquitecturas conexionistas: el Pandemonium, el Perceptrón, y el Adaline, un sistema adaptativo que podía aprender de forma más precisa y rápida que los perceptrones existentes.
La catástrofe se produjo al llegar los años 70, cuando Marvin Minsky y Seymour Papert pusieron de manifiesto que los perceptrones de la época sólo podían resolver problemas linealmente separables de los que, desgraciadamente, había muy pocos. El trabajo de Minsky y Papert paralizó durante 10 años el avance de este campo de la inteligencia artificial, pero algunos grupúsculos hay continuaron trabajando. La resistencia preparaba su regreso …
En los primeros años oscuros, Teuvo Kohonen y James Anderson propusieron el mismo modelo de memoria asociativa desde dos disciplinas diferentes: Kohonen es ingeniero eléctrico y Anderson es psicólogo y neurocientífico. En 1980 Stephen Grossberg creó un nuevo principio de auto-organización gracias a las redes neuronales ART (Adaptive Resonance Theory) y en 1982 el distinguido físico teórico John Hopfield desarrolló la idea del uso de una función de energía para a comprender la dinámica de una red neuronal recurrente, en que el estado de una neurona depende de otros estados precedentes. A su vez, David Rumelhart, Geoffrey Hinton y Ronald Williams desarrollaron en 1986 el algoritmo de aprendizaje para retropropagació (backpropagation) para redes neuronales multicapa y resucitaron definitivamente el interés.
Desde entonces, el número de trabajos sobre redes neuronales ha ido aumentando, con alguna desaceleración ocasionada por la aparición un modelo de aprendizaje máquina que rivalizaba en prestaciones: las máquinas de vector soporte. Sin embargo, dos artículos influyentes de Hinton en 2006 hicieron renacer el campo de las redes neuronales de forma espectacular y lo zambuyeron en lo que se conoce como aprendizaje profundo o deep learning.
Las redes neuronales profundas se encuentran en el núcleo de más del 90% de los sistemas expertos implementados en la actualidad, fundamentalmente, porque mejoran los resultados de otros modelos matemáticos cuando el problema a tratar presenta las siguientes características: variabilidad con el tiempo, no linealidad, presencia de ruido y alta dimensionalidad. Así pues, estos modelos se han empleado ampliamente en todas las áreas del conocimiento, entre las que podemos destacar las siguientes aplicaciones: medicina, farmacia, economía, ciberseguridad, medio ambiente, etc.
Independientemente de cual sea la aplicación y su grado de complejidad, la belleza de las redes neuronales artificiales se encuentra en la sencillez de sus componentes estructurales. La genialidad del comportamiento de los modelos conexionistas radica, no en la capacidad individual de las neuronas artificiales, sino en la riqueza de sus interacciones y en su capacidad de combinación con otras técnicas. La investigación en computación cuántica, que aún está dando sus primeros pasos, es un buen ejemplo. Las redes neuronales cuánticas anhelan mantener la magia sustituyendo la salida binaria de la neurona de McCulloch-Pitts por un qubit (unidad de medida cuántica de la información). Esta aproximación permitiría abrir nuevos horizontes liderados por un componente cuya salida podría ser, al mismo tiempo, una superposición de sus estados activo e inactivo: una neurona artificial dudosa!
Pero esa es otra historia… Mientras tanto, continuaremos escribiendo y recitando versos binarios como: «Esta canción es un beso, para despertar, a Alan Turing»1.
1Estribillo de la canción “El beso” del álbum “Un dígito binario dudoso”, recital para Alan Turing del grupo Hidrogenesse editado el año 2012.
No comments yet.