Redes Neuronales Artificiales

 

Desde la maestría, el tema de las redes neuronales ha sido de mi muy particular interés. En aquél entonces era un tema en boga, pero se fue atenuando ante el desarrollo de algunos enfoques más simples o prometedores. Sin embargo, han encontrado un nuevo aire y están pasando por un tercer periodo de atención en el que me reencuentro con ellas.


Warren McCulloch y Walter Pitts publicaron el primer concepto de una célula cerebral simplificada, la llamada neurona de McCulloch-Pitts, en 19431. Las neuronas son células nerviosas interconectadas en el cerebro que están involucradas en el procesamiento y transmisión de señales químicas y eléctricas. McCulloch y Pitts describieron tal célula nerviosa como una simple puerta lógica con salidas binarias; múltiples señales llegan a las dendritas, luego se integran en el cuerpo de la célula y, si la señal acumulada excede un cierto umbral, se genera una señal de salida que será transmitida por el axón.

Sólo unos años más tarde, Frank Rosenblatt publicó el primer concepto de la regla de aprendizaje del Perceptrón, basada en el modelo de neurona de McCulloch y Pitts. Con esta regla, Rosenblatt propuso un algoritmo que aprendería automáticamente los coeficientes de peso óptimo que luego se multiplican con las funciones de entrada para tomar la decisión de si una neurona se dispara o no. En el contexto del aprendizaje supervisado y la clasificación, tal algoritmo podría utilizarse para predecir si una muestra pertenece a una clase u otra.

 

Bidirectional Associative Memory

Bidirectional Associative Memory (BAM)

La memoria asociativa bidireccional es una red neuronal recurrente que brinda el comportamiento de una memoria asociativa. Aunque pudiera pensarse que es muy complicada en realidad es un modelo muy simple. Puede implementarse en una calculadora que posea cálculo matricial y la posibilidad de acceder a elementos individuales de los arreglos. Aquí hay una implementación en Excel.

Deep Learning

Aprendizaje Profundo

Sobre la tercera generación de redes neuronales, el Deep Learning.

Referencias

  1. W. S. McCulloch and Walter Pitts, «A Logical Calculus of the Ideas Immanent in Nervous Activity«, Bulletin of Mathematical Biophysics, 5(4): 115-133, 1943. URL: https://link.springer.com/article/10.1007/BF02478259


Twitter Wordpress eMail
© Todos los derechos reservados.
Dr. Eduardo René Rodríguez Ávila
Creación: 2018.12.09
Última actualización: 2021.03.22
El contenido de este sitio puede ser copiado y reproducido libremente mientras no sea alterado y se cite su origen. Marcas y productos registrados son citados por referencia y sin fines de lucro o dolo. Todas las opiniones son a título personal del o los autores de éstas y, salvo sea expresado de otro modo, deben considerarse como registro y expresión de la experiencia de uso de aquello que es tratado. Para conocer más sobre la posición de privacidad y responsabilidad de lo que se presenta en este sitio web y como ha sido obtenido, consulte la declaración al respecto.