0% encontró este documento útil (0 votos)
6 vistas5 páginas

Módulo 3 - ¿Cómo Funcionan Las Redes Neuronales

Las redes neuronales consisten en capas que procesan datos a través de entradas, pesos, sesgos y funciones de activación. Las funciones de activación, como la sigmoidal, ReLU y Softmax, introducen no linealidad y permiten a la red aprender relaciones complejas. La capa de salida genera el resultado final, mientras que las capas ocultas realizan el procesamiento intermedio.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
6 vistas5 páginas

Módulo 3 - ¿Cómo Funcionan Las Redes Neuronales

Las redes neuronales consisten en capas que procesan datos a través de entradas, pesos, sesgos y funciones de activación. Las funciones de activación, como la sigmoidal, ReLU y Softmax, introducen no linealidad y permiten a la red aprender relaciones complejas. La capa de salida genera el resultado final, mientras que las capas ocultas realizan el procesamiento intermedio.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Módulo 3: ¿Cómo funcionan las redes

neuronales?
Las redes neuronales están compuestas por varias capas y elementos
que trabajan juntos para procesar información y generar resultados.

1. Entradas (Input Layer)


Las entradas de una red neuronal son los datos iniciales que se
introducen en la red para ser procesados. Estos datos pueden ser
cualquier tipo de información numérica, como píxeles de una imagen,
palabras en un texto, o características en un conjunto de datos.

2. Pesos (Weights)
Los pesos son valores numéricos asignados a las conexiones entre
neuronas. Cada entrada de una neurona es multiplicada por un peso,
que determina la importancia de esa entrada. Durante el entrenamiento
de la red, estos pesos se ajustan para minimizar el error en la salida,
permitiendo que la red aprenda a realizar tareas específicas.
3. Sesgos (Bias)
El sesgo es un valor adicional que se suma al producto ponderado de
las entradas y los pesos. Este valor ayuda a la red a ajustarse mejor a
los datos, permitiendo que el modelo se desplace en el espacio de
entrada y no esté limitado a pasar por el origen (punto cero).

4. Funciones de Activación
Las funciones de activación se utilizan para introducir la no linealidad en
las redes neuronales, lo que permite a la red aprender y representar
relaciones complejas en los datos.

¿Qué es la No Linealidad?

Ejemplo: Temperatura en una galleta recién horneada.

Cuando la galleta recién sale del horno la temperatura es muy alta, por
lo tanto, no la puedes tocar o te quemarás, sin embargo, no toma mucho
tiempo para que se enfríe lo suficiente para que la puedas comer, luego
se mantienen templadas por mucho tiempo y no se enfrían más que la
temperatura ambiente. Si dibujamos una gráfica del enfriamiento de una
galleta, se vería más o menos así.
A continuación, se describen algunas de las funciones de activación
más comunes:

Función Sigmoidal

La función sigmoidal es una curva en forma de "S" que convierte


cualquier valor de entrada en un rango entre 0 y 1. Es comúnmente
utilizada en redes neuronales para problemas de clasificación binaria.

Función Lineal

La función lineal no modifica los valores de entrada, es decir, la salida


es proporcional a la entrada. Es utilizada en la capa de salida para
problemas de regresión, no es útil en capas ocultas, ya que no introduce
no linealidad.
Función ReLU (Rectified Linear Unit)
ReLU es la función de activación más utilizada en la actualidad, que
convierte todos los valores negativos en 0 y deja pasar los valores
positivos tal como están. Es computacionalmente eficiente (ideal para
microcontroladores).

Función Softmax

La función Softmax transforma las salidas a una representación en


forma de probabilidades, de tal manera que el sumatorio de todas las
probabilidades de las salidas de 1.

Se usa en la capa final de redes multicapa para clasificadores de


múltiples clases.

La salida de la neurona es la probabilidad de que una entrada


pertenezca a una clase.

5. Salidas (Output Layer)


La capa de salida es donde la red neuronal proporciona el resultado
final después de procesar la información a través de las capas ocultas.
Dependiendo del problema, la salida puede ser un valor numérico, una
clase específica en problemas de clasificación, o cualquier otro
resultado deseado.

6. Capas Ocultas (Hidden Layers)


Las capas ocultas están situadas entre las capas de entrada y salida.
Estas capas son responsables del procesamiento intermedio de los
datos. Cuantas más capas ocultas tenga una red, más complejas son
las relaciones que puede modelar.

También podría gustarte