0% encontró este documento útil (0 votos)
75 vistas9 páginas

Redes Neuronales Expo

1) Este documento presenta información sobre el Grupo #4 del curso de Teoría de Redes Neuronales de la carrera de Psicología en la Universidad Privada Domingo Savio. 2) El grupo está conformado por 6 estudiantes y su docente es la Lic. Viviana Bautista Gualachavo. 3) El módulo correspondiente es Psicología Cognitiva y el turno es por la mañana.

Cargado por

Christian H Ibad
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
75 vistas9 páginas

Redes Neuronales Expo

1) Este documento presenta información sobre el Grupo #4 del curso de Teoría de Redes Neuronales de la carrera de Psicología en la Universidad Privada Domingo Savio. 2) El grupo está conformado por 6 estudiantes y su docente es la Lic. Viviana Bautista Gualachavo. 3) El módulo correspondiente es Psicología Cognitiva y el turno es por la mañana.

Cargado por

Christian H Ibad
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Universidad privada domingo savio

Facultad de ciencias sociales

Carrera de psicologia

Grupo#4

Teoria de redes neuronales

Docente: Lic. Viviana bautista gualachavo

Integrantes: Alexis pereira garrido

Christian Hernando ibad ibad


Cielo milena Quispe mocho
Gueisy malele yama
Salma adriana ramirez temo
Jhoana gabriel mercado poveda

Modulo: Psicologia cognitiva

Turno: Mañana
Introducción

El hombre se ha caracterizado siempre por su búsqueda constante de nuevas vías


para mejorar sus condiciones de vida. Estos esfuerzos le han servido para reducir
el trabajo en aquellas operaciones en las que la fuerza juega un papel primordial.
Los progresos obtenidos han permitido dirigir estos esfuerzos a otros campos,
como por ejemplo, a la construcción de máquinas calculadoras que ayuden a
resolver de forma automática y rápida determinadas operaciones que resultan
tediosas cuando se realizan a mano.
Uno de los primeros en acometer esta empresa fue Charles Babbage, quien trató
infructuosamente de construir una máquina capaz de resolver problemas
matemáticos. Posteriormente otros tantos intentaron construir máquinas similares,
pero no fue hasta la Segunda Guerra Mundial, cuando ya se disponía de
instrumentos electrónicos, que se empezaron a recoger los primeros frutos. En
1946 se construyó la primera computadora electrónica, ENIAC. Desde entonces
los desarrollos en este campo han tenido un auge espectacular.
Estas máquinas permiten implementar fácilmente algoritmos para resolver multitud
de problemas que antes resultaban engorrosos de resolver. Sin embargo, se
observa una limitación importante: ¿qué ocurre cuando el problema que se quiere
resolver no admite un tratamiento algorítmico, como es el caso, por ejemplo, de la
clasificación de objetos por rasgos comunes? Este ejemplo demuestra que la
construcción de nuevas máquinas más versátiles requiere un enfoque del
problema desde otro punto de vista. Los desarrollos actuales de los científicos se
dirigen al estudio de las capacidades humanas como una fuente de nuevas ideas
para el diseño de las nuevas máquinas. Así, la inteligencia artificial es un intento
por descubrir y describir aspectos de la inteligencia humana que pueden ser
simulados mediante máquinas. Esta disciplina se ha desarrollado fuertemente en
los últimos años teniendo aplicación en algunos campos como visión artificial,
demostración de teoremas, procesamiento de información expresada mediante
lenguajes [Link].
Las redes neuronales son más que otra forma de emular ciertas características
propias de los humanos, como la capacidad de memorizar y de asociar hechos. Si
se examinan con atención aquellos problemas que no pueden expresarse a través
de un algoritmo, se observará que todos ellos tienen una característica en común:
la experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la
experiencia acumulada. Así, parece claro que una forma de aproximarse al
problema consista en la construcción de sistemas que sean capaces de reproducir
esta característica humana. En definitiva, las redes neuronales no son más que un
modelo artificial y simplificado del cerebro humano, que es el ejemplo más
perfecto del que disponemos para un sistema
que es capaz de adquirir conocimiento a través de la experiencia. Una red
neuronal es “un nuevo sistema para el tratamiento de la información, cuya unidad
básica de procesamiento está inspirada en la célula fundamental del sistema
nervioso humano: la neurona”.
Todos los procesos del cuerpo humano se relacionan en alguna u otra forma con
la (in)actividad de estas neuronas. Las mismas son un componente relativamente
simple del ser humano, pero cuando millares de ellas se conectan en forma
conjunta se hacen muy poderosas.
Lo que básicamente ocurre en una neurona biológica es lo siguiente: la neurona
es estimulada o excitada a través de sus entradas (inputs) y cuando se alcanza un
cierto umbral, la neurona se dispara o activa, pasando una señal hacia el axon.
Posteriores investigaciones condujeron al descubrimiento de que estos procesos
son el resultado de eventos electroquímicos. Como ya se sabe, el pensamiento
tiene lugar en el cerebro, que consta de billones de neuronas interconectadas. Así,
el secreto de la “inteligencia” -sin importar como se defina- se sitúa dentro de
estas neuronas interconectadas y de su interacción.
También, es bien conocido que los humanos son capaces de aprender.
Aprendizaje significa que aquellos problemas que inicialmente no pueden
resolverse, pueden ser resueltos después de obtener más información acerca del
problema. Por lo tanto, las Redes Neuronales.

 Consisten de unidades de procesamiento que intercambian datos o


 información.
 Se utilizan para reconocer patrones, incluyendo imágenes, manuscritos y
 secuencias de tiempo (por ejemplo: tendencias financieras).
 Tienen capacidad de aprender y mejorar su funcionamiento.

Una primera clasificación de los modelos de redes neuronales podría ser,


atendiendo a su similitud con la realidad biológica:
1) El modelo de tipo biológico: Este comprende las redes que tratan de simular
los sistemas neuronales biológicos, así como las funciones auditivas o algunas
funciones
básicas de la visión.
2) El modelo dirigido a aplicación: Este modelo no tiene por qué guardar
similitud con los sistemas biológicos. Su arquitectura está fuertemente ligada a las
necesidades de las aplicaciones para la que es diseñada.

Son sistemas computacionales, inspirados en las neuronas que constituyen el


cerebro de los animales, dotando a los ordenadores de inteligencia artificial.
Están formadas por unidades básicas llamadas neuronas que se conectan entre sí
formando la red neuronal. El objetivo de estos algoritmos es entender datos del
mundo real (imágenes, texto, voz. etc procesarios y clasificarlos o etiquetarlos.
Como en el cerebro humano, una de las características más importantes de las
redes neuronales es su poder de " aprendizaje “. dependiendo del tipo de
aprendizaje de estos algoritmos se clasifican en tres grandes grupos:

 aprendizaje supervisado: se " etiquetan " los datos de entrada para ayudar
a los algoritmos a evaluar correctamente los datos y asignar un valor de
salida. Es un método de aprendizaje muy utilizado para clasificaciones y
regresiones.
 aprendizaje no supervisado: se basa en no etiquetar ningún dato de entrada
y dejar que el algoritmo encuentre variantes de patrones y correlaciones.
 aprendizaje reforzado: se basa en el ensayo y error. Un ejemplo, para
explicarlo de una forma sencilla, sería un videojuego. Recordando el
famoso juego de la serpiente para móviles, serpiente tien movimientos
limitados que puede hacer (arriba, abajo, izquierda y derecha)

Representantes

Alan Turing.

Fue el primero en estudiar el cerebro como una forma de ver el mundo de la


computación. Sin embargo, los primeros teóricos que concibieron los
fundamentos de la computación neuronal fueron Warren McCulloch, una
neurofisiología, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una
teoría acerca de la forma de trabajar de las neuronas

Warren McCulloch y Walter Pitts

Se puede decir que la Inteligencia Artificial empezó a surgir en 1943 cuando


Warren McCulloch y Walter Pitts propusieron un modelo de neurona del cerebro
humano y animal, una abstracción que proporcionó una representación simbólica
de la actividad cerebral.
Podríamos situar el origen de los modelos conexionistas con la definición de la
neurona formal dada por McCulloch y Pitts en 1943 como un dispositivo binario
con varias entradas y salidas.
McCulloch y Pitts impulsaron el nacimiento de la I.A. proponiendo la definición de
la neurona
Con estas ideas nace la cibernética y más tarde el término Inteligencia Artificial
McCulloch y Pitts. A logical calculus of the ideas immanent in nervous activity:

 una Máquina de Turing podría ser implementada en una red finita de


neuronas formales 1947: aproximaciones para diseñar “redes nerviosas”
para reconocer entradas visuales
 Las redes neuronales actuales se basan en el modelo de neurona descrito
de esta forma cada neurona consta de un conjunto de entradas y una sola
salida.
 Cada entrada está afectada por un coeficiente, denominado peso.
 La cantidad calculada como la suma del producto de cada entrada
multiplicada por su respectivo peso se denomina activación de la neurona
 Una de las primeras arquitecturas neuronales donde se aplica es el
Perceptrón
 Los pesos de las neuronas se modifican sometiendo a la red a un
entrenamiento, mediante una regla de aprendizaje.
Más adelante, Norbert Wiener elaboró con estas ideas junto con otras, dentro del
mismo campo, lo que se llamó “cibernética”. De aquí nacería, sobre los años 50, la
Inteligencia Artificial.

Donald Hebb.

Fue el primero en explicar los procesos del aprendizaje (que es el elemento básico
de la inteligencia humana) desde un punto de vista psicológico, desarrollado una
regla de como el aprendizaje ocurría. Aun hoy, este es el fundamento de la
mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal.
Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona
eran activados.

Teoria

Donald Olding Hebb nació en 1904 en Chester, Nueva Escocia. Sus padres eran
médicos y como su madre estaba muy interesada en las enseñanzas de Maria
Montessori, una médica italiana que creía en la "educación de los sentidos antes
del desarrollo del intelecto", lo llevó a la escuela hasta que tenía 8 años. Ahí su
desempeño fue extraordinario, por lo que pasó a secundaria a la edad de 10 años.
Después ingresó a la Universidad Dalhousie, graduándose en 1925 con un
promedio "peor que mediocre" y posteriormente a la Universidad McGill, donde
obtuvo una Maestría en Psicología y empezó a trabajar para su doctorado con el
famoso Karl Lashley. Ahí conoció al famoso Sigmund Freud, de quien dijo
"Obviously a very interesting fellow but, it seemed to me, not too rigorous", por lo
que a la edad de 23 años pensó que, "it might not be too late for me to enter the
field, which evidently had room for further work." Cuando Lashley se cambió a la
Universidad de Harvard, Hebb fué con él y en 1936 obtuvo el doctorado. Ahí
estudió ratas crecidas en la oscuridad, en comparación con ratas crecidas con
ciclos normales de luz/oscuridad y empezó a pensar sobre las redes neuronales.
Hebb regresó a Montreal para tomar la posición de Asistente de Investigación de
Wilder Penfield, que entonces investigaba deficits nerviosos en personas con
lesiones cerebrales. Dos años después Lashley lo invitó a Florida a estudiar
primates durante los siguientes 5 años y después Hebb regresó a Montreal, donde
en 1948 escribió su famoso libro The Organization of Behavior.
En su libro Hebb muestra como pueden iniciarse en grupos de neuronas los
fenómenos psicológicos básicos de atención, percepción y memoria. La idea de
Hebb era que los estímulos y sus respuestas activan diferentes grupos neuronales
y cuando pasa esto, las conexiones internas y entre los grupos se refuerzan. Ese
patrón de conexiones establece que ese grupo de neuronas permanezca como un
conjunto que representa el almacén de una memoria, y que sirve como el 'camino
de menor resistencia' cuando la misma experiencia, o partes críticas de ella
vuelven a aparecer.
Esto es, cuando dos neuronas se activan juntas refuerzan su conexión y les es
mas fácil inducir una reactivación, lo que se resume como, "las neuronas que se
activan juntas, están conectadas juntas", un corolario que ha tenido enormes
implicaciones para la fisiología y la psicología y recientemente también para la
ingeniería y las ciencias de la computación.
El grupo neuronal de Hebb es circular por naturaleza, ya que una vez activado
persiste por cierto tiempo. Esta actividad, llamada trazo de actividad (activity trace)
hace que las conexiones entre las neuronas en el trazo de actividad se vuelvan
fuertes permanentemente, formando un 'trazo de memoria estructural'. El principio
por el que esto ocurre se ha llamado la 'regla de Hebb' y dice que la conexión
entre las neuronas activas al mismo tiempo, es reforzada en proporción a sus
niveles de actividad. La regla de Hebb fue implementada en los 1980s como el
principio de aprendizaje de las computadoras durante las simulaciones de grupos
de neuronas, pero actualmente las redes neuronales y los modelos conexionistas
usan principios de aprendizaje mas complicados.
El trabajo e ideas de Hebb fueron la base de la creación de la nueva
neuropsicología. Su idea de que el comportamiento debe ser entendido en
términos de las neuronas que propagan las señales, es un concepto que está
siendo examinado intensamente en la actualidad.

Ventajas que ofrecen las redes neuronales

Debido a su constitución y a sus fundamentos, las redes neuronales artificiales


presentan un gran número de características semejantes a las del cerebro. Por
ejemplo, son capaces de aprender de la experiencia, de generalizar de casos
anteriores a nuevos casos, de abstraer características esenciales a partir de
entradas que representan información irrelevante, etc. Esto hace que ofrezcan
numerosas ventajas y que este tipo de tecnología se esté aplicando en múltiples
áreas. Entre las ventajas se incluyen:

Aprendizaje adaptativo.

La capacidad de aprendizaje adaptativo es una de las características más


atractivas de redes neuronales. Esto es, aprenden a llevar a cabo ciertas tareas
mediante un entrenamiento con ejemplos ilustrativos.
Como las redes neuronales pueden aprender a diferenciar patrones mediante
ejemplos y entrenamientos, no es necesario elaborar modelos a priori ni necesidad
de especificar funciones de distribución de probabilidad las redes neuronales son
sistemas dinámicos auto adaptativos. Son adaptables debido a la capacidad de
autoajuste de los elementos procesales (neuronas) que componen el sistema son
dinámicos, pues son capaces de estar constantemente cambiando para adaptarse
a las nuevas condiciones en el proceso de aprendizaje, los enlaces ponderados de
las neuronas se ajustan de manera que se obtengan ciertos resultados
específicos. Una red neuronal no necesita un algoritmo para resolver un problema,
ya que ella puede generar su propia distribución de pesos en los enlaces mediante
el aprendizaje. También existen redes que continúan aprendiendo a lo largo de su
vida, después de completado su período de entrenamiento.
La función del diseñador es únicamente la obtención de la arquitectura apropiada
no es problema del diseñador el cómo la red aprenderá a discriminar. Sin
embargo, sí es necesario que desarrolle un buen algoritmo de aprendizaje que le
proporcione a la red la capacidad de discriminar, mediante un entrenamiento con
patrones.

Auto-organización.
Las redes neuronales emplean su capacidad de aprendizaje adaptativo para auto
organizar la información que reciben durante el aprendizaje y/o la operación.
Mientras que el aprendizaje es la modificación de cada elemento procesal, la auto
organización consiste en la modificación de la red neuronal completa para llevar a
cabo un objetivo específico cuando las redes neuronales se usan para reconocer
ciertas clases de patrones, ellas auto organizan la información usada. Por ejemplo,
la red llamada backpropagation, creará su propia representación característica,
mediante la cual puede reconocer ciertos patrones.
Esta autoorganización provoca la generalización: facultad de las redes neuronales
de responder apropiadamente cuando se les presentan datos o situaciones a las
que no había sido expuesta anteriormente el sistema puede generalizar la entrada
para obtener una respuesta.
Esta característica es muy importante cuando se tiene que solucionar problemas
en los cuales la información de entrada no es muy clara; además permite que el
sistema dé una solución, incluso cuando la información de entrada está
especificada de forma incompleta.

Tolerancia a fallos.

Las redes neuronales fueron los primeros métodos computacionales con la


capacidad inherente de tolerancia a fallos comparados con los sistemas
computacionales tradicionales, los cuales pierden su funcionalidad cuando sufren
un pequeño error de memoria, en las redes neuronales, si se produce un fallo en
un número no muy grande de neuronas y aunque el comportamiento del sistema
se ve influenciado, no sufre una caída repentina.
Hay dos aspectos distintos respecto a la tolerancia a fallos:
a) Las redes pueden aprender a reconocer patrones con ruido, distorsionados o
incompletos. Esta es una tolerancia a fallos respecto a los datos.
b) Las redes pueden seguir realizando su función (con cierta degradación)
aunque se destruya parte de la red.
La razón por la que las redes neuronales son tolerantes a los fallos es que tienen
su información distribuida en las conexiones entre neuronas, existiendo cierto
grado de redundancia en este tipo de almacenamiento la mayoría de los
ordenadores algorítmicos y sistemas de recuperación de datos almacenan cada
pieza de información en un espacio único, localizado y direccionable en cambio,
las redes neuronales almacenan información no localizada. Por lo tanto, la
mayoría de las interconexiones entre los nodos de la red tendrán sus valores en
función de los estímulos recibidos, y se generará un patrón de salida que
represente la información almacenada.

Operación en tiempo real.

Una de las mayores prioridades, casi en la totalidad de las áreas de aplicación, es


la necesidad de realizar procesos con datos de forma muy rápida las redes
neuronales se adaptan bien a esto debido a su implementación paralela para que
la mayoría de las redes puedan operar en un entorno de tiempo real, la necesidad
de cambio en los pesos de las conexiones o entrenamiento es mínimo.

Fácil inserción dentro de la tecnología existente.

Una red individual puede ser entrenada para desarrollar una única y bien definida
tarea (tareas complejas, que hagan múltiples selecciones de patrones, requerirán
sistemas de redes interconectadas). Con las herramientas computacionales
existentes (no del tipo PC), una red puede ser rápidamente entrenada,
comprobada, verificada y trasladada a una implementación hardware de bajo
coste.
Por lo tanto, no se presentan dificultades para la inserción de redes neuronales en
aplicaciones específicas, por ejemplo, de control, dentro de los sistemas
existentes de esta manera, las redes neuronales se pueden utilizar para mejorar
sistemas en forma incremental y cada paso puede ser evaluado antes de
acometer un desarrollo más amplio.

Aplicación

Recomendador de Youtube

recomendaciones de YouTube son responsables de ayudar a más de mil millones


de usuarios a descubrir contenido personalizado uno de los mayores desafíos que
tuvieron que afrontar a la hora de crear el algoritmo es la cantidad de datos que
son subidos a youtube por segundos

Personalizar las estrategias de marketing

En los últimos años son varias las compañías que utilizan inteligencia artificial para
mejorar sus estrategias de marketing . Las redes neuronales son algoritmos los
cuales pueden procesar gran cantidad de datos como: perfiles de compradores,
patrones de compra u otros tipos de datos específicos para cada empresa.

 Netflix: búsqueda de contenido de los suscriptores


 Amazon: recomendaciones según intereses del usuario

También podría gustarte