Aquí también estamos

Glosario actualizado el

Redes neuronales artificiales

Los primeros balbuceos de las redes neuronales artificiales se sitúan en el año 1943, cuando el neurofisiólogo Warren McCulloch y el matemático Walter Pitts desarrollaron una teoría sobre el mecanismo de actuación de las neuronas. Seis años después Donald Hebb publicaba «La organización del comportamiento», un libro que se ha convertido en un clásico en la materia y ha servido de inspiración a los ulteriores creadores de redes artificiales.

La primera red neuronal artificial propiamente dicha data del año 1957, año de aparición del Perceptron por obra de Frank Rosenblatt. Este modelo tenía en común con las redes neuronales naturales la capacidad de generalizar; es decir, tras asimilar un conjunto de patrones podía reconocer y clasificar otros que no había trabajado en la fase de entrenamiento.
Sin embargo, adolecía de una grave limitación, en la medida en que no era capaz de clasificar clases que no pudiesen separarse linealmente. En los años siguientes vieron la luz diversos modelos de redes neuronales artificiales, si bien las limitaciones del Perceptron se mantenían, lo que restaba operatividad a estos modelos. Durante más de una década las investigaciones en esta materia parecían estar en una vía muerta, hasta que en 1982 John Hopfield presentó la red que lleva su nombre y el interés por las redes neuronales artificiales volvió a resurgir.

La red Backpropagation

Una vez subsanadas las deficiencias de la etapa anterior, durante 1982 y 2000 han ido surgiendo todo tipo de redes neuronales, especializadas en múltiples actividades. Posiblemente la más utilizada es la red Backpropagation, que data del año 1986, obra de Rumelhart, Hinton y Williams. Esta red consta de tres capas de neuronas; las primeras son las neuronas de la capa de entrada, a continuación, vienen las de la capa oculta y por último las de la capa de salida. El número de neuronas de la capa de entrada es igual al número de elementos de los que consta la entrada; el de la capa de salida es igual al número de elementos que se desean obtener, y el número de neuronas de la capa oculta es variable.

Por ejemplo, si se quiere diseñar una red que calcule el coeficiente intelectual y afectivo de una persona en función de su puntuación en cuatro tests psicológicos. La capa de entrada constaría de cuatro neuronas (una por cada puntuación de los cuatro tests), la capa de salida de dos neuronas (para calcular el perfil intelectual y el afectivo) y la capa oculta podría constar de más o menos neuronas según el criterio de cada uno, si bien una capa de cuatro o cinco neuronas podría ser suficiente. Cada una de las neuronas de una capa están conectadas con las de la capa siguiente mediante un número que se denomina peso y que mide la intensidad de la unión entre dos neuronas.

Funcionamiento de las redes neuronales artificiales

    Resumen de la red en las siguientes fases
  • 1– Fase de aprendizaje: Se asigna un valor aleatorio a cada uno de los pesos; se presenta un vector de datos de entrada y salida; a partir de los datos de entrada se calcula una salida, en función de los pesos aleatorios; la diferencia entre los datos de salida obtenidos y los calculados se llama término de error. Con este «término de error» se corrigen los pesos de las conexiones entre las capas de neuronas, con lo que se puede calcular una nueva salida, un nuevo término de error y así sucesivamente hasta que el término de error sea suficientemente bajo.
  • 2– Fase de aplicación: Una vez los pesos tienen los valores óptimos, se puede presentar a las neuronas de la capa de entrada un vector de entrada, a partir del cual se obtendrá un vector de salida relacionado con el de entrada.
  • Las redes neuronales artificiales se aplican con éxito para resolver problemas semejantes a los de los algoritmos genéticos, tales como optimización o reconocimiento de caracteres. El problema de este método, que también comparte con los algoritmos genéticos, es que cuanto más complejo sea un problema mayor será la probabilidad de que se estanque en un mínimo relativo, con lo que la solución obtenida no será la mejor de todas las posibles. Para paliar este problema se han desarrollado un tipo especial de redes llamadas redes neuronales estocásticas.
    En los modelos de Vida Artificial las redes neuronales se emplean para simular el proceso de aprendizaje nervioso, como es el caos del modelo mbiti word, desarrollado por el grupo Geneura de la Universidad de Granada.

    Ver también

    En el glosario: Algoritmo genéticoEPOCInteligencia artificialRed neuronalSistema Tierra.

    En biografías: Alan Mathison TuringJohn von NeumannNorbert WienerThomas Ray.

    Más contenido

    Apartados: ¿Cómo optimizar y aumentar la velocidad de Internet?¿Cómo surge una idea?¿Existe la seguridad absoluta?Consejos en la ergonomía informáticaConsejos para aprender a programarEl auge de las redes socialesEn la búsqueda de archivos torrentsEntrevista laboral: cualquier cosa te llamamosHerramientas de respaldo y recuperación de archivos¿Se puede estar sin Internet?¿Seremos dependientes de la IA como lo somos de Internet?Una cursada diferente


    Virus/gusanos: El origen de los virusCIHHappy99HybrisILoveYouLife StagesMelissaTimofónicaZippedFilesInfecciones vía correo electrónicoDistintas vías de infecciónVirus informáticos con historia


    Historias: ¿Cómo surgió la imprenta?Acerca de paquetes ofimáticosEl CDEl MP3Evolución de la informáticaAppleGoogleLa evolución de los Disc JockeysLinuxLa lógicaMicrosoftNavegadores de InternetOrigen y evolución de InternetSurgimiento de la criptografíaTarjetas gráficas


    Videojuegos/consolas: Evolución de las consolasEvolución de los videojuegosInventores de videojuegosJugando con la XboxSimCityVideojuegos violentos