ADALINE RED NEURONAL
ANA MILENA VELANDIA BENTEZ YUDI MILENA LOZANO BENAVIDES Facultad de ingeniera, Universidad Panamericana, Bogot D, C., Colombia. [email protected] [email protected] Resumen Este artculo se basa en la documentacin y relaciona de Adaline, este perceptrn es un sistema de aprendizaje basado en ejemplos y usa una matriz para representar las redes neuronales. Este sistema capaz de realizar tareas de clasificacin de forma automtica, puede manejar mayor que simples decisiones y reconocimiento de patrones. La entrada es comparada con un patrn preestablecido para determinar la salida de la red. Si en la comparacin, la suma de las entradas multiplicadas por los pesos es mayor o igual que el patrn preestablecido la salida de la red es uno (1), en caso contrario la salida es cero (0).. Palabras claves: Perceptrn Neuronales Adaline Abstract This article is based on documents and lists of Adaline, this perceptron is a learning system based on examples and uses a matrix to represent neural networks. This system can perform classification tasks automatically, you can handle more than just making and pettern recognition. The entry is compared with a preset pattern to determine the output of the network. If the comparison, the sum of the inputs multiplied by weights is greater than or equal to the preset pattern of the network output is one (1), otherwise the output is zero (0). 1. Introduccin Desarrollo de los sistemas de redes neuronales, se encontr gran similitud entre su comportamiento y el de los sistemas biolgicos y en principio se crey que este modelo poda computar cualquier funcin aritmtica o lgica. Capaz de clasificar patrones correctamente, en lo que Rosenblatt denominaba un entorno diferenciado, en el cual cada clase estaba formada por patrones similares. La red tipo Perceptrn fue inventada por el siclogo Frank Rosenblatt en el ao 1957. Su intencin era ilustrar algunas propiedades fundamentales de los sistemas inteligentes en general, sin entrar en mayores detalles con respecto a condiciones especficas y desconocidas para organismos biolgicos concretos. Rosenblatt crea que la conectividad existente en las redes biolgicas tiene un elevado porcentaje de aleatoriedad, por lo que se opona al anlisis de McCulloch Pitts en el cual se empleaba lgica simblica para analizar estructuras bastante idealizadas.
La red Adaline es similar al Perceptron, excepto en su funcin de transferencia, la cual es una funcin de tipo lineal en lugar de un limitador fuerte como en el caso del Perceptron. La red Adaline presenta la misma limitacin del Perceptron en cuanto al tipo de problemas que pueden resolver, ambas redes pueden solo resolver problemas linealmente separables, sin embargo el algoritmo LMS es ms potente que la regla de aprendizaje del Perceptrn ya que minimiza el error medio cuadrtico, la regla sirvi de inspiracin para el desarrollo de otros algoritmos, este es el gran aporte de esta red. El trmino Adaline es una sigla, sin embargo su significado cambi ligeramente a finales de los aos sesenta cuando decay el estudio de las redes neuronales, inicialmente se llamaba ADAptive LInear NEuron (Neurona Lineal Adaptiva), para pasar despus a ser Adaptive LInear Element (Elemento Lineal Adaptivo), este cambio se debi a que la Adaline es un dispositivo que consta de un nico elemento de procesamiento, como tal no es tcnicamente una red neuronal. El elemento de procesamiento realiza la suma de los productos de los vectores de entrada y de pesos, y aplica una funcin de salida para obtener un nico valor de salida, el cual debido a su funcin de transferencia lineal ser +1 si la sumatoria es positiva o 1 si la salida de la sumatoria es negativa.
digital) solo pude establecer dos regiones separadas por una frontera lineal en el espacio de patrones de entrada, donde se tendra un hiperplano. Un Adaline con tres niveles de neuronas puede formar cualquier regin convexa en este espacio. Definido para modificar los pesos con objeto de hacer posible que el dispositivo proporcione el valor de salida correcto para la entrada dada; el significado de correcto para efectos del valor de salida depende de la funcin de tratamiento de seales que est siendo llevada a cabo por el dispositivo. El Adaline es Lineal porque la salida es una funcin lineal sencilla de los valores de la entrada. Es una neurona tan solo en el sentido (muy limitado) del PE. Tambin se podra decir que el Adaline es un Elemento Lineal, evitando por completo la definicin como neurona. El Adaline se entrena por medio de un proceso de minimizacin de errores que garantiza la convergencia a una solucin. 2.2 Capas de Adaline Un Perceptrn con cuatro capas puede generar regiones de decisin arbitrariamente complejas. El proceso de separacin en clases que se lleva a cabo consiste en la particin de la regin deseada en pequeos hipercubos. Cada hipercubo requiere 2n neuronas en la segunda capa (siendo n el nmero de entradas a la red), una por cada lado del hipercubo, y otra en la tercera capa, que lleva a cabo el and lgico de la salida de los nodos del nivel anterior. La salida de los nodos de este tercer nivel se activara solo para las entradas de cada hipercubo. Los hipercubos se asignan a la regin de decisin adecuada mediante la conexin de la salida de cada nodo del tercer nivel solo con la neurona de salida (cuarta capa) correspondiente a la regin de decisin en la que este comprendido el hipercubo
2. Contenido 2.1. Capas de Adaline
El Adaline bsico de dos capas (entrada con neuronas lineales, analgicas, y la de salida con funcin de activacin de tipo escaln,
llevndose a cabo una operacin lgica Or en cada nodo de salida. Este procedimiento se pude generalizar de manera que la forma de las regiones convexas sea arbitraria, en lugar de hipercubos. Las regiones formadas por cada neurona de la segunda capa, cada uno de estos elementos se comporta como un Perceptrn simple, activndose su salida para los patrones de un lado del hiperplano. Un Perceptrn simple, activndose su salida para los patrones de un lado del hiperplano. 2.3 Perceptron multicapa Es una red neuronal artificial (RNA) formada por mltiples capas, esto le permite resolver problemas que no son linealmente separables, lo cual es la principal limitacin del Perceptron (tambin llamado Perceptron simple). El Perceptron multicapa puede ser totalmente o localmente conectado. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas las neuronas de la capa "i+1", mientras que en el segundo cada neurona de la capa "i" es entrada de una serie de neuronas (regin) de la capa "i+1". Capa de entrada: Constituida por aquellas neuronas que introducen los patrones de entrada en la red. En estas neuronas no se produce procesamiento. Capas ocultas: Formada por aquellas neuronas cuyas entradas provienen de capas anteriores y cuyas salidas pasan a neuronas de capas posteriores. Capa de salida: Neuronas cuyos valores de salida se corresponden con las salidas de toda la red.
Figura 1.1 Adaline multicapa
2.4 Arquitectura del Perceptron Multicapa El perceptrn multicapa consta de una capa de entrada y una capa de salida y una o ms capas ocultas. Dichas capas se unen de forma total hacia delante, esto es, la capa entrada se une con la primera capa oculta y esta con la siguiente y la ltima capa oculta se une con la capa de salida. Los valores que el perceptrn multicapa acepta son reales. El Perceptrn bsico slo puede establecer dos regiones separadas por una frontera lineal en el espacio de entrada de los patrones; Las regiones convexas se forman mediante la interseccin de regiones formadas por cada neurona de la segunda capa, cada uno de estos elementos se comporta como un Perceptrn simple, activndose su salida para los patrones de un lado del hiperplano, si el valor de los pesos de las conexiones entre las neuronas de la segunda capa y una neurona del nivel de salida son todos igual a 1, y la funcin de salida es de tipo hardlim, la salida de la red se activar slo si las salidas de todos los nodos de la segunda capa estn activos, esto equivale a ejecutar la funcin lgica AND en el nodo de salida, resultando una regin de decisin interseccin de todos los semiplanos formados en el nivel anterior.
1.5.3. Evaluacin Si y(x) es diferente de d(x), la red da una respuesta incorrecta, por lo tanto comienza el proceso de aprendizaje. Si el error da positivo, se necesita incrementar la salida, pero si este es negativo se decremento y el error se calcula con la formula:
Figura 1.1 Estructura Adaline
E(x)= d(x)-y(x) En el problema de la funcin XOR se explic como un Perceptrn multicapa haba sido implementado para hallar una solucin, el esquema general de un Perceptrn multicapa puede encontrarse generalizando a una red con mltiples entradas y que incluya una entrada adicional donde se notan las conexiones entre sus nodos de entrada y las neuronas de salida. 2.5 Esquema del algoritmo Los pasos para el desarrollo del algoritmo de aprendizaje de una red neuronal como la Adaline son: 1.5.1. Inicializacin En este proceso se determinan los pesos y el valor del umbral entre el rango -0,5 y 0,5. Se empiezan los valores aleatorios 0,1 para el grupo de W. 1.5.2. Activacin El Adaline se activa aplicando las entradas X1, x2, x3,. Xn para que calcule la salida d(x). donde la formula es: 3. Resultados Los pesos se incrementan o no dependiendo de la salida y este criterio se da a partir de la siguiente frmula: W(k+1)=w(k)+[z(k) y(k)]x(k),j=1,2n+1 Al realizar esto se colocan nuevos pesos y dar paso al aprendizaje. 1.5.4 Criterio de parada Se define como el fin de las n-esimas iteraciones, si no se han modificado los pesos en las p iteraciones esto nos indica que la red se ha estabilizado y ha culminado el aprendizaje.
Se realizara la decodificacin de binario a decimal. El decodificador recibe una entrada y produce una salida en valor decimal. Por medio de valores y argumentos dados a continuacin.
3.1 Codificacin Inicializacin
Aprendizaje_Neurona End Sub Sub Binarios() Dim i, j, ResDiv As Integer For i = 0 To 255 Cells((i + 13), 2) = "" For j = 1 To 8 ResDiv = Cells((i + 13), 1) Mod 2 Cells((i + 13), 1) = Cells((i + 13), 1) \ 2 Cells((i + 13), 2) = "" & ResDiv & "" & Cells((i + 13), 2) & "" Next Cells((i + 13), 1) = i Next End Sub Sub Extraer(a) For i = 0 To 7 If Mid(Cells((a + 13), 2), (i + 1), 1) = 0 Then Cells((i + 2), 4) = -1 Else Cells((i + 2), 4) = 1 End If Next End Sub
NumAleat Cells(3, 9) = NumAleatorio NumAleat Cells(3, 10) = NumAleatorio Cells(12, 4) = 0 Extraer (k)
Evaluacin
For j = 0 To 7 X1 = Cells((j + 2), 1) X2 = Cells((j + 2), 2) X3 = Cells((j + 2), 3) T = Cells((j + 2), 4) W1 = Cells(3, 8) W2 = Cells(3, 9) W3 = Cells(3, 10) S = (W1 * X1) + (W2 * X2) + (W3 * X3) If S > -1 Then Harlim = 1 Else Harlim = -1 End If Error = T - Harlim D1 = (Error * W1) D2 = (Error * W2) D3 = (Error * W3) W1 = (D1 + W1) W2 = (D2 + W2) W3 = (D3 + W3) Cells(3, 8) = W1 Cells(3, 9) = W2 Cells(3, 10) = W3
Criterio de parada
If S >= 1 Then S=1 Else S = -1 End If If T = S Then Cells(12, 4) = Cells(12, 4) + 1 End If Next If Cells(12, 4) = 8 Then Cells(k, 3) = "Criterio de parada" End If
Activacin
Private Function NumAleat() Randomize NumAleatorio = CInt(((-5) - 5) * Rnd + 5) End Function Sub Aprendizaje_Neurona() Dim W1, W2, W3, X1, X2, X3, S, T, Harlim, Error, D1, D2, D3 As Integer For k = 0 To 255 For i = 1 To Cells(3, 6) NumAleat Cells(3, 8) = NumAleatorio
Next Next
End Sub
3.2 Grfico Se decodifica un nmero de 8 bits como se muestra en la siguiente tabla.
En esta combinacin encontramos salidas que nos indica su respectivo aprendizaje, es decir que se estabiliza y se cumple con la ejecucin establecida para una solucin ptima.
4. Conclusiones Las redes neuronales tienen diferentes aplicaciones y relaciones como lo es con la implementacin en circuitos combinacionales para digitalizar procesos industriales. Un circuito combinacional es aquel est formado por funciones lgicas elementales como AND, OR, NAND, NOR etc. Se demostr que es posible disear con xito nuevos y ms eficientes algoritmos que los existentes a la fecha, sin ms que considerar no solo adaptabilidad en los operadores y los parmetros involucrados en la optimizacin, sino tambin en la propia estructura del algoritmo. Esos diseos pueden obtenerse flexibilizando dicha estructura de manera que sea capaz de adaptarse dinmicamente dependiendo de las circunstancias actuales del proceso de bsqueda. Para implementar estas estructuras flexibles son necesarios algunos mecanismos para la toma de decisiones y control del proceso. Con la combinacin de las redes neuronales y los sistemas digitales se pueden hacer llegar a elaborar proyectos de codificadores, decodificadores, multiplexores entre otros. 5. Referencias [1]http://www.ayc.unavarra.es/miguel.pagola/ Redes%20Neuronales.pdf [2]http://www.geofisica.cl/English/pics3/FU M6.htm [3]http://moisesrbb.tripod.com/unid ad1.htmhttp [4]http://www.zator.com/Hardware/ H1_7_1.htm [5]http://delta.cs.cinvestav.mx/~cco ello/revistas/genetico.pdf.gz
[6]
Smith, Robert E.; Goldberg, David, E. y Earickson, Jeff A. "SGA-C : A C-language Implementation of a Simple Genetic Algorithm", TCGA Report No. 91002, The Clearinghouse for Genetic Algorithms, The University of Alabama, Mayo 14 de 1991. [7] Filho, Jos L. Ribeiro; Treleaven, Philip C. y Alippi, Cesare. "Genetic-Algorithm Programming Environments", en IEEE Computer, Junio de 1994, pp. 28-43. Ana Milena Velandia Bentez, es estudiante de Ingeniera de Sistemas. Ha realizado estudios en Universidad Panamericana. Sus reas de intereses son Redes Neuronales e Inteligencia Artificial. [email protected]
Yudi Milena Lozano Benavides, es estudiante de Ingeniera de Sistemas. Ha realizado estudios en Universidad Panamericana y universidad de los libertadores. Sus reas de intereses son:Redes Neuronales e Inteligencia Artificial. [email protected]