Universidad abierta para adultos
(UAPA)
Nombre:
Roger
Apellidos:
Subervi Martínez
Matricula:
100040951
Facilitador:
Tomas F. Ramirez Perez
Tema:
Tarea 6 inteligencia artificial
Fecha:
27/06/2025
Introducción a las Redes Neuronales
En la actualidad, las redes neuronales constituyen una de las herramientas
más poderosas y prometedoras dentro del campo de la inteligencia artificial (IA)
y el aprendizaje automático (machine learning).
Estas redes están inspiradas en el funcionamiento del cerebro humano y
buscan imitar la forma en que las neuronas biológicas procesan y transmiten la
información.
Gracias a su capacidad para reconocer patrones complejos, aprender de los
datos y mejorar su rendimiento con el tiempo, las redes neuronales han
revolucionado diversas industrias, desde la medicina hasta la ingeniería,
pasando por las finanzas, la seguridad y el comercio electrónico.
El estudio y aplicación de las redes neuronales no solo ha permitido
automatizar procesos anteriormente reservados a los humanos, sino que
también ha contribuido al desarrollo de nuevas tecnologías como los asistentes
virtuales, los vehículos autónomos y los sistemas de recomendación
inteligentes.
Este informe tiene como objetivo explorar en profundidad los fundamentos
teóricos, tipos, aplicaciones, ventajas, desafíos, herramientas y casos prácticos
asociados a las redes neuronales artificiales, proporcionando una visión
integral y actualizada sobre este fascinante campo de estudio.
Este informe tiene como propósito brindar una visión integral sobre el
funcionamiento, estructura, tipos, aplicaciones, herramientas y desafíos de las
redes neuronales.
A través de un enfoque técnico pero accesible, se examinarán tanto los
fundamentos teóricos como ejemplos prácticos que ilustran su relevancia en la
sociedad moderna. El estudio de las redes neuronales no solo permite
comprender el potencial actual de la inteligencia artificial, sino que también
abre la puerta a explorar futuras innovaciones que transformarán nuestra vida
cotidiana.
Definición y Origen de las Redes Neuronales
Las redes neuronales son modelos computacionales inspirados en la estructura
y funcionamiento del cerebro humano. Están compuestas por unidades básicas
llamadas neuronas artificiales, que se conectan entre sí para procesar
información.
Estas neuronas realizan operaciones matemáticas sobre las entradas que
reciben, generando una salida que puede ser transmitida a otras neuronas. El
objetivo principal de las redes neuronales es aprender a realizar tareas
específicas a partir de ejemplos, sin necesidad de programación explícita.
El origen de las redes neuronales se remonta a la década de 1940, cuando
Warren McCulloch y Walter Pitts propusieron un modelo de neurona artificial
basado en funciones lógicas. Este modelo sentó las bases para los desarrollos
posteriores en el área de la inteligencia artificial y la neurociencia
computacional.
Las redes neuronales artificiales (RNA) son sistemas computacionales
diseñados para simular el comportamiento de las redes neuronales biológicas
presentes en los cerebros humanos y animales. Se componen de neuronas
artificiales organizadas en capas, las cuales procesan información mediante
operaciones matemáticas.
El objetivo principal de las RNA es aprender automáticamente a partir de datos,
identificando patrones y realizando predicciones o clasificaciones sin necesidad
de reglas programadas explícitamente.
Breve Historia y Evolución de las Redes Neuronales
Durante los años 60 y 70, las redes neuronales enfrentaron críticas
significativas debido a sus limitaciones, especialmente la incapacidad del
perceptor para resolver problemas no lineales, como la función XOR. Esto llevó
a un estancamiento en el área conocido como el "invierno de la IA".
Sin embargo, en 1986, el renacimiento del interés ocurrió gracias al desarrollo
del algoritmo de retro propagación del error (backpropagation), que permitía
entrenar redes multicapa.
A partir del año 2000, con el crecimiento exponencial de los datos (big data), el
abaratamiento del hardware (como las GPU) y la mejora de algoritmos, las
redes neuronales experimentaron un resurgimiento. Surgieron nuevas
arquitecturas como las redes convolucionales (CNN), recurrentes (RNN) y más
recientemente, los transformes.
Este avance dio paso al aprendizaje profundo (deep learning), donde las redes
tienen muchas capas y son capaces de aprender representaciones complejas y
jerárquicas de los datos. Hoy en día, las redes neuronales son fundamentales
en aplicaciones como los sistemas de recomendación, los asistentes virtuales,
el reconocimiento facial y los modelos de lenguaje de gran escala.
Estructura y Funcionamiento.
Estructura de una Red Neuronal
Una red neuronal artificial está organizada en una serie de capas conectadas
entre sí:
Neurona artificial: es la unidad básica de procesamiento. Recibe varias
entradas ponderadas (multiplicadas por un peso), las suma, aplica una función
de activación y produce una salida.
Capas:
Capa de entrada: recibe los datos brutos (por ejemplo, píxeles de una
imagen).
Capas ocultas: realizan transformaciones internas de los datos. Pueden ser
una o múltiples y son responsables del aprendizaje profundo.
Capa de salida: genera el resultado final del modelo (por ejemplo, una
clasificación).
Pesos sinápticos: valores numéricos ajustables que determinan la influencia
de una entrada sobre la neurona.
Función de activación: transforma la suma ponderada de las entradas para
permitir que la red aprenda relaciones no lineales. Las más comunes son:
Sigmoidea: útil para salidas entre 0 y 1.
Tangente hiperbólica (tanh): transforma las salidas entre -1 y 1.
ReLU (Rectified Linear Unit): convierte valores negativos en cero y deja pasar
los positivos; es eficiente en redes profundas.
Redes Neuronales de una Capa vs. Multicapa
Una red neuronal de una sola capa consiste en una capa de entrada
directamente conectada a una capa de salida. Este modelo, conocido como
perceptor simple, solo puede resolver tareas linealmente separables. Por
ejemplo, no puede aprender a clasificar correctamente datos que sigan una
función XOR.
En cambio, las redes multicapa (MLP) contienen varias capas ocultas entre la
entrada y la salida. Estas capas adicionales permiten a la red capturar
relaciones no lineales complejas y aprender representaciones más abstractas
de los datos. Gracias al uso de funciones de activación no lineales, las redes
multicapa pueden aproximar cualquier función continua, según el teorema de
aproximación universal.
Proceso de Entrenamiento: Retro propagación y Optimización
El entrenamiento de una red neuronal implica ajustar los pesos sinápticos para
minimizar el error de predicción. Este proceso consta de varias etapas:
Inicialización: se asignan pesos aleatorios a todas las conexiones de la red.
Propagación hacia adelante: los datos se introducen en la capa de entrada y
se transmiten hacia adelante hasta la salida, generando una predicción.
Cálculo del error: se compara la predicción con la etiqueta real mediante una
función de pérdida.
Retropropagación del error: se calcula el gradiente de la función de pérdida
respecto a cada peso utilizando derivadas parciales. Esta información se
propaga hacia atrás desde la capa de salida hasta la de entrada.
Actualización de pesos: se utilizan algoritmos de optimización (como
descenso por gradiente estocástico - SGD, Adam o RMSprop) para actualizar
los pesos en la dirección que minimiza el error.
Este ciclo se repite durante varias iteraciones (épocas) hasta que la red
alcanza un nivel de precisión aceptable. Durante este proceso, también pueden
utilizarse técnicas como regularización, normalización de datos y ajuste de
hiperparámetros para mejorar el rendimiento y evitar el sobreajuste.
Tipos de Redes Neuronales
Redes Neuronales Feedforward (FFNN)
Las redes neuronales feedforward son las más básicas y consisten en capas
donde la información fluye en una sola dirección, desde la capa de entrada
hasta la capa de salida, sin retroalimentación. No poseen memoria de entradas
anteriores, por lo que se utilizan para tareas de clasificación y regresión
estáticas, como reconocimiento de patrones o predicción de valores numéricos.
Redes Neuronales Recurrentes (RNN) y LSTM
Las RNN están diseñadas para procesar secuencias de datos, como texto,
audio o series temporales. A diferencia de las FFNN, las RNN poseen
conexiones que permiten retroalimentación, proporcionando una forma de
"memoria" que almacena información de estados anteriores. Sin embargo, las
RNN estándar sufren de problemas como el desvanecimiento o explosión del
gradiente. Para solucionarlo, se desarrollaron las LSTM (Long Short-Term
Memory), que incorporan mecanismos de puertas que controlan el flujo de
información, facilitando el aprendizaje de dependencias a largo plazo.
Redes Convoluciones (CNN)
Las CNN son especialmente eficaces para el procesamiento de datos con
estructura espacial, como imágenes y videos. Utilizan capas convolucionales
que aplican filtros para extraer características locales, seguidas de capas de
agrupamiento (pooling) que reducen la dimensionalidad, y capas
completamente conectadas al final para la toma de decisiones. Las CNN han
revolucionado el reconocimiento de imágenes, la detección de objetos y el
análisis de video.
Redes Adversarias Generativas (GANS)
Las GANS constan de dos redes que compiten entre sí: un generador que crea
datos falsos y un discriminador que evalúa su autenticidad. Este enfoque
permite generar datos sintéticos realistas, como imágenes, música o textos.
Las GANS se utilizan en tareas como generación de rostros artificiales, mejora
de resolución de imágenes, arte generativo y simulaciones.
Otras Redes Neuronales Relevantes
Autoencoders: redes utilizadas para compresión de datos, detección de
anomalías y reducción de dimensionalidad. Funcionan codificando una entrada
en una representación más compacta y luego reconstruyéndola.
Transformers: arquitectura diseñada para manejar secuencias de datos sin
recurrencia. Utiliza mecanismos de atención para identificar relaciones entre
elementos de entrada. Son fundamentales en modelos de lenguaje como
BERT, GPT y T5.
Aplicaciones de las Redes Neuronales
Reconocimiento de Imágenes
Las redes convolucionales (CNN) se emplean ampliamente en sistemas de
reconocimiento de imágenes. Aplicaciones comunes incluyen el diagnóstico por
imagen en medicina (detección de tumores en radiografías), sistemas de
vigilancia inteligente (reconocimiento facial), y análisis automático de imágenes
satelitales para monitoreo ambiental.
Procesamiento de Lenguaje Natural (PLN)
Las redes neuronales recurrentes (RNN), LSTM y transformers han
transformado el PLN. Se usan en traducción automática, análisis de
sentimiento, generación automática de texto, asistentes virtuales como Siri o
Alexa, y modelos conversacionales como ChatGPT. Estos modelos
comprenden contextos complejos, identifican relaciones gramaticales y
generan respuestas coherentes.
Diagnóstico Médico
Las redes neuronales son capaces de analizar grandes volúmenes de datos
clínicos, como imágenes, historiales médicos y resultados de laboratorio. Por
ejemplo, se utilizan CNN para detectar enfermedades oculares como la
retinopatía diabética y LSTM para predecir recaídas en enfermedades crónicas.
Esto permite un diagnóstico más rápido, preciso y accesible.
Ventajas y Desafíos
Ventajas
Capacidad de aprendizaje automático: las redes neuronales aprenden
directamente de los datos sin requerir reglas explícitas.
Modelado de relaciones no lineales: pueden capturar patrones complejos y
realizar tareas que otros algoritmos no logran con la misma precisión.
Versatilidad: se adaptan a diferentes tipos de datos: imágenes, texto, sonido,
series temporales.
Mejoras continuas: su rendimiento mejora a medida que se entrena con más
datos.
Desafíos
Necesidad de grandes volúmenes de datos: requieren datasets extensos y
etiquetados para funcionar eficazmente.
Alto costo computacional: demandan recursos significativos (GPU, memoria,
energía).
Sobreajuste (overfitting): pueden memorizar datos de entrenamiento en lugar
de generalizar.
Falta de interoperabilidad: son difíciles de explicar, lo que puede ser
problemático en entornos donde se requiere transparencia.
Herramientas y Bibliotecas
TensorFlow: desarrollado por Google, es una de las bibliotecas más populares
y potentes. Ofrece soporte para redes profundas, entrenamiento distribuido y
visualización con TensorBoard.
PyTorch: desarrollado por Facebook, destaca por su flexibilidad, facilidad de
uso y comunidad activa. Es ampliamente utilizado en investigación académica.
Keras: biblioteca de alto nivel que corre sobre TensorFlow. Ideal para
prototipado rápido y enseñanza.
Scikit-learn: aunque más centrada en aprendizaje automático tradicional,
incluye herramientas útiles para preprocesamiento y modelos básicos.
ONNX: formato abierto que permite intercambiar modelos entre distintas
plataformas y frameworks.
Estudio de un Caso Práctico.
Diagnóstico de Retinopatía Diabética con CNN (Google)
Google, en colaboración con médicos oftalmólogos, desarrolló un sistema
basado en redes neuronales convolucionales (CNN) para detectar retinopatía
diabética, una enfermedad que afecta la retina y puede causar ceguera. El
sistema fue entrenado con más de 100,000 imágenes de retina etiquetadas por
expertos. Durante la evaluación, el modelo demostró una precisión comparable
a la de los oftalmólogos humanos.
Este sistema permite realizar diagnósticos automáticos y precisos en lugares
con escasez de especialistas, reduciendo los costos y mejorando la eficiencia
del sistema de salud. Además, este caso demuestra el potencial de la
inteligencia artificial para complementar el trabajo médico, reduciendo la carga
de los profesionales y mejorando los resultados clínicos.