Fundamentos de Redes Neuronales AI
Fundamentos de Redes Neuronales AI
Fundamentos de la
inteligencia artificial
CONTENIDO
1. Objetivos
2. Introducción
3. Fundamentos biológicos
4. Modelo computacional
6. Perceptrón simple
7. Perceptrón multicapa
8. Resumen
9. Bibliografía
Redes de neuronas | 3
Asimismo, una sola neurona del cerebro puede recibir Las sinapsis entre las neuronas es clave para el
unas 10 000 entradas y enviar su salida a cientos de procesamiento de la información. La mayoría de las
otras neuronas a través de sus ramificaciones, ya que las neuronas tienen una estructura en forma de árbol
conexiones entre las neuronas se llaman sinapsis. No es llamada dendritas, que reciben información de otras
una conexión física, pero tiene un espacio de unos 2 mm. neuronas a través de sinapsis. Tomando en cuenta que
Tomando en cuenta que son conexiones unidireccionales las neuronas se componen de tres partes.
en las que la transmisión de información se produce
eléctricamente dentro de las neuronas y químicamente
entre neuronas. Gracias por una sustancia específica
llamada neurotransmisor.
Redes de neuronas | 4
Anteriormente, se indicó que se estima que el cerebro Sin embargo, en [5] se indica que las características
humano contiene más de 100 mil millones de neuronas principales de las redes neuronales juegan un papel
y 10000,000000 sinapsis del sistema nervioso. Los importante durante el procesamiento de señales e
estudios realizados en el campo de la anatomía del imágenes. Tomando en cuenta que estas utilizan una
cerebro humano concluyen que el número promedio de arquitectura que incluye elementos de procesamiento,
sinapsis dentro y fuera de cada neurona es superior a interconexión adaptativa paralela combinada con una
1000. Tomando en cuenta que las neuronas biológicas estructura jerárquica. Estas son las siguientes:
tienen tiempos de conmutación casi un millón de
veces más largos (milisegundos) que los componentes • Autoorganización y adaptabilidad: cuenta
informáticos modernos. Sin embrago, las neuronas con algoritmos de aprendizaje adaptativo y
naturales tienen miles de veces más conectividad que autoorganización. De esta manera, permite brindar
las neuronas artificiales. Por tal motivo, el objetivo la mejor oportunidad para un tratamiento confiable.
principal de las redes neuronales de tipo biológico es el • Procesamiento no lineal: desarrollar la capacidad
desarrollo de operaciones, síntesis y procesamiento de de la red y aproxima las funciones, clasificando los
información relacionada con los sistemas biológicos. modelos y mejorando la inmunidad para el ruido.
• Procesamiento paralelo: generalmente,
esta característica utiliza muchos nodos de
procesamiento, altamente interconectados.
Redes de neuronas | 5
El principal elemento computacional, es decir, modelo El modelado con una red neuronal consta de dos pasos:
neuronal, suele ser conocido como un nodo o unidad.
Este recibe información de otros dispositivos o fuentes
de datos externas. Tomando en cuenta que cada entrada
tiene asociado un peso w, que se cambia en el llamado
proceso siguiente de aprendizaje o aprender. Así, cada
unidad aplica una función específica f a la suma de las
entradas ponderadas al peso, es decir:
yi= ∑ wi yi
j
Funciones de
transferencias típicas
tipos de neuronas
Clasificación
Figura 7. Estructura general del perceptrón [3]
Redes no
Solamente se perfecciona el peso y los limites no se supervisadas
ajustarán. De esta manera, se facilita el aprendizaje, ya
que es necesario tener en cuenta la presencia de una Redes
pseudoneurona conectada a la entrada de cada neurona, supervisadas
cuyo valor es el valor unitario en la salida yo=-1, y peso de Figura 8. Clasificación de las redes neuronales.
la conexión woj=t. Asimismo, la actualización de estado
modular, es decir, evolución de la red neuronal, puede ser Se debe tener en cuenta que las redes de pesos fijos no
de dos tipos: tienen algún tipo de aprendizaje. A continuación, se dará
una breve explicación de las redes tanto supervisadas y
• Modo asíncrono, las neuronas están
no supervisadas.
constantemente evaluando su estado, a medida
que llega la información y de manera independiente. • Redes de neuronas supervisadas
• Modo síncrono, las modificaciones se realizan de “Las redes supervisado son el modelo de red
forma síncrona, aunque también se accede a la más desarrollado desde el inicio de este tipo de
información de forma continua. diseño. Los datos de entrenamiento consisten en
múltiples pares de modelos de entrenamiento de
Lo importante de todo esto es que en cada unidad se
entrada y salida” [4].
realiza un cómputo local a partir de los insumos que
brindan los vecinos, pero no se requiere un control Tomando en cuenta que el que se conozcan los
global de todas las unidades. En la práctica, la mayoría resultados significa que el aprendizaje se realiza
de las implementaciones de la red neuronal artificial bajo la supervisión de un experto. Considerando el
en el software se implementan mediante el control nuevo patrón de entrenamiento (m+1), los pesos se
síncrono para actualizar los módulos. Otro elemento ajustan de la siguiente manera:
muy importante de ANN son las reglas de aprendizaje.
Biológicamente, generalmente, se acepta que la wij(m+1)=wij(m)+∆wij(m)
información almacenada en el cerebro está relacionada
con el significado sináptico de las conexiones entre Posteriormente, se puede ver el diagrama de
las neuronas. En otras palabras, el conocimiento está bloques del sistema de aprendizaje supervisado en
en las sinapsis. En el caso de ANN, se puede suponer la siguiente figura:
que el conocimiento se expresa en forma de pesos de
conexiones entre neuronas. Cada proceso de aprendizaje
implica algunos cambios en estas conexiones. De hecho,
se puede decir que se aprendió cambiando el valor del
peso de la red.
Por lo tanto, es necesario conocer tres características de • Toman menos tiempo para aprender que los
los modelos supervisado: generalmente supervisados.
• Arquitectura simple, generalmente:
• Una o más capas de neuronas ocultas que no
forman parte de la capa de entrada o salida de - Una sola capa
la red. Esto permite que las redes aprendan y - Freed-Forward
resuelvan problemas complejos.
• Tipos principales:
• Las no linealidades reflejadas en la actividad
- Kohonen
neuronal son distinguibles.
- Grossberg
• El modelo de interacción de red representa un alto
grado de conectividad. • Solucionar los siguientes tipos de problemas:
- Conocimiento
El algoritmo de aprendizaje de corrección de errores
entrena la red basándose en muestras de entrada y - Análisis de componentes principales
salida para encontrar señales de error. Asimismo, el - Agrupación
paradigma del aprendizaje supervisado es eficiente y - Creación de prototipos, extracción de
encuentra soluciones a diversos problemas lineales y no características, mapeo
lineales, como la clasificación, la gestión empresarial, la
predicción, la predicción y la robótica. Las neuronas tienen ese valor en la salida que se propaga
por la red con conexiones unidireccionales a otras celdas
• Redes de neuronas no supervisadas de la red. Asociado a cada conexión, tomando en cuenta
“La red no supervisada utiliza datos de que es un peso sináptico, wij define los efectos de las
entrenamiento que consisten solo en modelos neuronas j-ésima de la i-ésima neurona. La entrada de
de entrada. Por lo tanto, esta red se forma sin la la i-ésima neurona de otras neuronas se acumula en el
participación del maestro o experto” [4]. umbral externo para obtener el valor de la red. La mejor
forma de determinarlo es continuar el conjunto de bases
Asimismo, esta red aprende a adaptarse en función matemáticas f especificando el valor de activación.
de la experiencia obtenida de patrones de aprendizaje En este sentido, el resultado final puede expresarse en
anteriores. función de entradas y pesos.
Perceptrón simple Según [3], este modelo creado está constituido por los
siguientes elementos:
A partir de la idea del mecanismo biológico, y
• Conjunto de vectores de entrada x de n componentes
como anteriormente se comentó, McCulloch & Pitts
establecieron un modelo artificial de neuronas en 1943. • Conjunto de pesos sinápticos wij. Esto simboliza
Esta idea fue adoptada por Rosenblatt quien, más tarde, la interacción entre la neurona presináptica j y la
creó una estructura llamada Perceptron. Un perceptrón neurona postsináptica i.
es una estructura con una o más entradas y utiliza • Regla de transferencia d(wij,xj,(t)): para potencial
señales binarias de las neuronas de entrada y salida. Su postsináptico hi (t)
función de activación es de tipo signo. Consta de una • Función de activación ai (t)=f(ai (t-1),hi (t)):
red con una capa de salida de n neuronas y otra capa proporciona el estado de activación de la neurona
de salida de m neuronas. Utiliza señales binarias de las según el valor pre y postsináptico.
neuronas de entrada y salida, y su función de activación
• Función de salida fi (t): proporciona la salida yi (t),
es de tipo firmado [2].
dependiendo del estado activo.
Se utilizan varios tipos de técnicas de aprendizaje
Tomando en cuenta que las señales de entrada y salida
automático para que las redes neuronales aprendan. Sin
pueden ser las siguientes:
embargo, el más común es el aprendizaje supervisado.
En este caso, el algoritmo toma como entrada los • Señales binarias, es decir, 0,1 (neuronas de
datos previamente etiquetados. Es decir, se observa el McCulloch y Pitts)
aprendizaje y se dice al algoritmo cómo interpretar la • Señales Bipolares, es decir, -1,1
información.
• Números enteros o continuos
• Variables borrosas
Perceptrón multicapa Las conexiones entre las neuronas son siempre directas:
las conexiones son de las neuronas de esta capa a las
Ahora que se tiene información sobre las redes neuronas de la capa siguiente. Sin embargo, no hay
neuronales, se estudiarán los modelos de redes conexión lateral o trasera. Por lo tanto, la información
neuronales más importantes (antiguos y útiles). Este siempre se transfiere de la capa de entrada a la capa
modelo es un perceptrón multicapa basado en un de salida. Al considerar wji, se usa como el peso de
perceptrón simple que resuelve, de manera efectiva, la conexión entre la neurona de entrada i y la neurona
problemas de clasificación y reconocimiento de patrones. intermedia j y vkj como el peso de la conexión entre la j
intermedia y la neurona de salida k.
“Es una red de retropropagación que contiene al
menos una capa oculta con suficientes unidades En [7] se indica que los perceptrones multicapa se
no lineales para aproximar una función o relación utilizan para resolver problemas como la asociación de
continua entre un conjunto de variables de entrada imágenes, la segmentación de imágenes y la compresión
y salida. Esta propiedad hace que la red Perceptron de datos. Adicionalmente, se encuentran los siguientes:
Multicapa sea una herramienta no lineal universal y
• Aprendizaje a través de la retropropagación
flexible” [5].
El aprendizaje se realiza en el perceptrón, cambiando
La estructura consta de tres capas, como se muestra los pesos de conexión después de procesar cada
en la (figura 14), el cual tiene una capa de entrada (L1), elemento, según la cantidad de errores de salida en
que consta de neuronas que introducen patrones de comparación con el resultado esperado. Tomando
entrada en la red. Tomando en cuenta que no se realiza en cuenta que este es un ejemplo de aprendizaje
ningún procesamiento en estas neuronas, seguidamente supervisado realizado por retro-propagación, que
conta de una capa intermedia u oculta (L2), que está es una generalización del algoritmo LMS (raíz
desarrollada por neuronas donde las entradas provienen cuadrática media) en un perceptrón lineal.
de la capa anterior y las salidas se envían a las neuronas
de las capas posteriores. Finalmente, de una capa Representa el error en el nodo j en el punto de datos
de salida (L3), que son neuronas cuyo valor de salida n como el siguiente:
corresponde a la salida de toda la red.
ej (n)=dj (n)-yj (n)
Aunque la mayoría de los problemas han demostrado
Este es el valor objetivo y, el valor generado por el
que las capas ocultas son suficientes, aquí se observar
perceptrón. Al ajustar los pesos de los nodos en
un perceptrón típico que consta de una capa de entrada,
función de los ajustes que minimizan los errores en
una capa oculta y una capa de salida.
el resultado general dado por la expresión:
Sin embargo, esta red cuenta con la característica de
ser necesario estimar la función de transferencia del ε(n)=
1
2 ∑ ej2 (n)
elemento de procesamiento (neurona). j