Red neuronal artificial
Ir a la navegaciónIr a la búsqueda
Este artículo trata sobre red neuronal artificial. Para otros usos de este término,
véase red neuronal biológica.
Este artículo o sección necesita referencias que aparezcan en una publicación
acreditada.
Este aviso fue puesto el 27 de febrero de 2017.
El texto que sigue es una traducción defectuosa. Si quieres colaborar con
Wikipedia, busca el artículo original y mejora esta traducción.
Copia y pega el siguiente código en la página de discusión del autor de este
artículo: {{subst:Aviso mal traducido|Red neuronal
artificial}} ~~~~
Una red neuronal artificial es un grupo interconectado de nodos similar a la vasta red de neuronas en un
cerebro biológico. Cada nodo circular representa una neurona artificial y cada flecha representa una
conexión desde la salida de una neurona a la entrada de otra.
Las redes neuronales artificiales (también conocidas como sistemas
conexionistas) son un modelo computacional el que fue evolucionando a partir de
diversas aportaciones científicas que están registradas en la historia. 1 Consiste en
un conjunto de unidades, llamadas neuronas artificiales, conectadas entre sí para
transmitirse señales. La información de entrada atraviesa la red neuronal (donde
se somete a diversas operaciones) produciendo unos valores de salida.
Cada neurona está conectada con otras a través de unos enlaces. En estos
enlaces el valor de salida de la neurona anterior es multiplicado por un valor de
peso. Estos pesos en los enlaces pueden incrementar o inhibir el estado de
activación de las neuronas adyacentes. Del mismo modo, a la salida de la
neurona, puede existir una función limitadora o umbral, que modifica el valor
resultado o impone un límite que no se debe sobrepasar antes de propagarse a
otra neurona. Esta función se conoce como función de activación.
Estos sistemas aprenden y se forman a sí mismos, en lugar de ser programados
de forma explícita, y sobresalen en áreas donde la detección de soluciones o
características es difícil de expresar con la programación convencional. Para
realizar este aprendizaje automático, normalmente, se intenta minimizar
una función de pérdida que evalúa la red en su total. Los valores de los pesos de
las neuronas se van actualizando buscando reducir el valor de la función de
pérdida. Este proceso se realiza mediante la propagación hacia atrás.
El objetivo de la red neuronal es resolver los problemas de la misma manera que
el cerebro humano, aunque las redes neuronales son más abstractas. Las redes
neuronales actuales suelen contener desde unos miles a unos pocos millones de
unidades neuronales.
Nuevas investigaciones sobre el cerebro a menudo estimulan la creación de
nuevos patrones en las redes neuronales. Un nuevo enfoque está utilizando
conexiones que se extienden mucho más allá y capas de procesamiento de enlace
en lugar de estar siempre localizado en las neuronas adyacentes. Otra
investigación está estudiando los diferentes tipos de señal en el tiempo que los
axones se propagan, como el aprendizaje profundo, interpola una mayor
complejidad que un conjunto de variables booleanas que son simplemente
encendido o apagado.
Las redes neuronales se han utilizado para resolver una amplia variedad de
tareas, como la visión por computador y el reconocimiento de voz, que son difíciles
de resolver usando la ordinaria programación basado en reglas. Históricamente, el
uso de modelos de redes neuronales marcó un cambio de dirección a finales de
los años ochenta de alto nivel, que se caracteriza por sistemas expertos con
conocimiento incorporado en si-entonces las reglas, a bajo nivel de aprendizaje
automático, caracterizado por el conocimiento incorporado en los parámetros de
un modelo cognitivo con algún sistema dinámico.
Índice
1Historia
o 1.1Aprendizaje de Hebb
o 1.2Propagación hacia atrás y el resurgimiento
o 1.3Diseños basados en Hardware
2Mejoras desde 2006
3Modelos
o 3.1Función de red
o 3.2El aprendizaje
o 3.3La elección de una función de coste
o 3.4Paradigmas de aprendizaje
3.4.1El aprendizaje supervisado
3.4.2Aprendizaje no supervisado
3.4.3Aprendizaje por refuerzo
o 3.5Tipo de entrada
4Algoritmos de aprendizaje
o 4.1Algoritmo recursivo convergente de aprendizaje
o 4.2El empleo de redes neuronales artificiales
5Aplicaciones
o 5.1Aplicaciones de la vida real
o 5.2Las redes neuronales y la neurociencia
6Potencia del cálculo
7La crítica
o 7.1Cuestiones de capacitación
o 7.2Cuestiones teóricas
8Las clases y tipos de RNAs
9Ejemplos
o 9.1Quake II Neuralbot
o 9.2Clasificador No Sesgado de Proteínas
10Galería
11Herramientas de software
12Véase también
13Referencias
14Enlaces externos
Historia[editar]
Warren McCulloch y Walter Pitts 2 (1943) crearon un modelo informático para
redes neuronales, que se llama lógica umbral, que se base en las matemáticas y
los algoritmos. Este modelo señaló el camino para que la investigación de redes
neuronales se divida en dos enfoques distintos. Un enfoque se centró en los
procesos biológicos en el cerebro y el otro se centró en la aplicación de
neuronales para la inteligencia artificial.
Aprendizaje de Hebb[editar]
A finales de la década de 1940 el psicólogo Donald Hebb34 creó una hipótesis de
aprendizaje basado en el mecanismo de plasticidad neuronal que ahora se conoce
como aprendizaje de Hebb. Aprendizaje de Hebb se considera que es un "típico"
de aprendizaje no supervisado y sus variantes posteriores fueron los primeros
modelos de la potenciación a largo plazo. Los investigadores empezaron a aplicar
estas ideas a los modelos computacionales en 1948 con la sugerencia de Turing,
que el córtex humano infantil es lo que llamaba "máquina desorganizada" (también
conocido como "máqina Turing Tipo B").56
Farley y Wesley A. Clark7 (1954) al principio utilizaron máquinas computacionales,
que entonces se llamaban "calculadoras", para simular una red de Hebb en el MIT.
Otras simulaciones de redes neuronales por computadora han sido creadas por
Rochester, Holanda, Hábito y Duda (1956).8
Frank Rosenblatt9 10 (1958) creó el perceptrón, un algoritmo de reconocimiento de
patrones basado en una red de aprendizaje de computadora de dos capas, que
utilizaba adición y sustracción simples. Con la notación matemática, Rosenblatt
también describe circuitería que no está en el perceptrón básico, tal como el
circuito de o-exclusiva, un circuito que no se pudo procesar por redes neuronales
antes de la creación del algoritmo de propagación hacia atrás por Paul
Werbos (1975).11
En 1959, un modelo biológico propuesto por dos laureados de los Premios
Nobel, David H. Hubel y Torsten Wiesel, estaba basado en su descubrimiento de
dos tipos de células en la corteza visual primaria: células simples y células
complejas.12
El primer reporte sobre redes funcionales multicapas fue publicado en 1965
por Ivakhnenko y Lapa, y se conoce como el método de agrupamiento para el
manejo de datos.131415
La investigación de redes neuronales se estancó después de la publicación de la
investigación de aprendizaje automático por Marvin Minsky y Seymour
Papert (1969),16 que descubrió dos cuestiones fundamentales con las máquinas
computacionales que procesan las redes neuronales. La primera fue que los
perceptrones básicos eran incapaces de procesar el circuito de o-exclusivo. La
segunda cuestión importante era que los ordenadores no tenían suficiente poder
de procesamiento para manejar eficazmente el gran tiempo de ejecución requerido
por las grandes redes neuronales.