0% encontró este documento útil (0 votos)
25 vistas12 páginas

Tarea 6 Inteligencia Artifiical Roger

Las redes neuronales son modelos computacionales inspirados en el cerebro humano, capaces de aprender y reconocer patrones complejos, revolucionando diversas industrias. Su evolución ha permitido el desarrollo de arquitecturas avanzadas como CNN, RNN y LSTM, aplicadas en áreas como reconocimiento de imágenes y procesamiento de lenguaje natural. A pesar de sus ventajas, enfrentan desafíos como la necesidad de grandes volúmenes de datos y el alto costo computacional.

Cargado por

Roger Subervi
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
25 vistas12 páginas

Tarea 6 Inteligencia Artifiical Roger

Las redes neuronales son modelos computacionales inspirados en el cerebro humano, capaces de aprender y reconocer patrones complejos, revolucionando diversas industrias. Su evolución ha permitido el desarrollo de arquitecturas avanzadas como CNN, RNN y LSTM, aplicadas en áreas como reconocimiento de imágenes y procesamiento de lenguaje natural. A pesar de sus ventajas, enfrentan desafíos como la necesidad de grandes volúmenes de datos y el alto costo computacional.

Cargado por

Roger Subervi
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Universidad abierta para adultos

(UAPA)

Nombre:
Roger
Apellidos:
Subervi Martínez
Matricula:
100040951
Facilitador:
Tomas F. Ramirez Perez

Tema:
Tarea 6 inteligencia artificial

Fecha:
27/06/2025
Introducción a las Redes Neuronales

En la actualidad, las redes neuronales constituyen una de las herramientas


más poderosas y prometedoras dentro del campo de la inteligencia artificial (IA)
y el aprendizaje automático (machine learning).
Estas redes están inspiradas en el funcionamiento del cerebro humano y
buscan imitar la forma en que las neuronas biológicas procesan y transmiten la
información.
Gracias a su capacidad para reconocer patrones complejos, aprender de los
datos y mejorar su rendimiento con el tiempo, las redes neuronales han
revolucionado diversas industrias, desde la medicina hasta la ingeniería,
pasando por las finanzas, la seguridad y el comercio electrónico.
El estudio y aplicación de las redes neuronales no solo ha permitido
automatizar procesos anteriormente reservados a los humanos, sino que
también ha contribuido al desarrollo de nuevas tecnologías como los asistentes
virtuales, los vehículos autónomos y los sistemas de recomendación
inteligentes.
Este informe tiene como objetivo explorar en profundidad los fundamentos
teóricos, tipos, aplicaciones, ventajas, desafíos, herramientas y casos prácticos
asociados a las redes neuronales artificiales, proporcionando una visión
integral y actualizada sobre este fascinante campo de estudio.
Este informe tiene como propósito brindar una visión integral sobre el
funcionamiento, estructura, tipos, aplicaciones, herramientas y desafíos de las
redes neuronales.
A través de un enfoque técnico pero accesible, se examinarán tanto los
fundamentos teóricos como ejemplos prácticos que ilustran su relevancia en la
sociedad moderna. El estudio de las redes neuronales no solo permite
comprender el potencial actual de la inteligencia artificial, sino que también
abre la puerta a explorar futuras innovaciones que transformarán nuestra vida
cotidiana.
Definición y Origen de las Redes Neuronales

Las redes neuronales son modelos computacionales inspirados en la estructura


y funcionamiento del cerebro humano. Están compuestas por unidades básicas
llamadas neuronas artificiales, que se conectan entre sí para procesar
información.
Estas neuronas realizan operaciones matemáticas sobre las entradas que
reciben, generando una salida que puede ser transmitida a otras neuronas. El
objetivo principal de las redes neuronales es aprender a realizar tareas
específicas a partir de ejemplos, sin necesidad de programación explícita.

El origen de las redes neuronales se remonta a la década de 1940, cuando


Warren McCulloch y Walter Pitts propusieron un modelo de neurona artificial
basado en funciones lógicas. Este modelo sentó las bases para los desarrollos
posteriores en el área de la inteligencia artificial y la neurociencia
computacional.
Las redes neuronales artificiales (RNA) son sistemas computacionales
diseñados para simular el comportamiento de las redes neuronales biológicas
presentes en los cerebros humanos y animales. Se componen de neuronas
artificiales organizadas en capas, las cuales procesan información mediante
operaciones matemáticas.
El objetivo principal de las RNA es aprender automáticamente a partir de datos,
identificando patrones y realizando predicciones o clasificaciones sin necesidad
de reglas programadas explícitamente.
Breve Historia y Evolución de las Redes Neuronales

Durante los años 60 y 70, las redes neuronales enfrentaron críticas


significativas debido a sus limitaciones, especialmente la incapacidad del
perceptor para resolver problemas no lineales, como la función XOR. Esto llevó
a un estancamiento en el área conocido como el "invierno de la IA".
Sin embargo, en 1986, el renacimiento del interés ocurrió gracias al desarrollo
del algoritmo de retro propagación del error (backpropagation), que permitía
entrenar redes multicapa.

A partir del año 2000, con el crecimiento exponencial de los datos (big data), el
abaratamiento del hardware (como las GPU) y la mejora de algoritmos, las
redes neuronales experimentaron un resurgimiento. Surgieron nuevas
arquitecturas como las redes convolucionales (CNN), recurrentes (RNN) y más
recientemente, los transformes.
Este avance dio paso al aprendizaje profundo (deep learning), donde las redes
tienen muchas capas y son capaces de aprender representaciones complejas y
jerárquicas de los datos. Hoy en día, las redes neuronales son fundamentales
en aplicaciones como los sistemas de recomendación, los asistentes virtuales,
el reconocimiento facial y los modelos de lenguaje de gran escala.
Estructura y Funcionamiento.

Estructura de una Red Neuronal


Una red neuronal artificial está organizada en una serie de capas conectadas
entre sí:
Neurona artificial: es la unidad básica de procesamiento. Recibe varias
entradas ponderadas (multiplicadas por un peso), las suma, aplica una función
de activación y produce una salida.
Capas:
Capa de entrada: recibe los datos brutos (por ejemplo, píxeles de una
imagen).
Capas ocultas: realizan transformaciones internas de los datos. Pueden ser
una o múltiples y son responsables del aprendizaje profundo.
Capa de salida: genera el resultado final del modelo (por ejemplo, una
clasificación).
Pesos sinápticos: valores numéricos ajustables que determinan la influencia
de una entrada sobre la neurona.
Función de activación: transforma la suma ponderada de las entradas para
permitir que la red aprenda relaciones no lineales. Las más comunes son:
Sigmoidea: útil para salidas entre 0 y 1.
Tangente hiperbólica (tanh): transforma las salidas entre -1 y 1.
ReLU (Rectified Linear Unit): convierte valores negativos en cero y deja pasar
los positivos; es eficiente en redes profundas.
Redes Neuronales de una Capa vs. Multicapa
Una red neuronal de una sola capa consiste en una capa de entrada
directamente conectada a una capa de salida. Este modelo, conocido como
perceptor simple, solo puede resolver tareas linealmente separables. Por
ejemplo, no puede aprender a clasificar correctamente datos que sigan una
función XOR.
En cambio, las redes multicapa (MLP) contienen varias capas ocultas entre la
entrada y la salida. Estas capas adicionales permiten a la red capturar
relaciones no lineales complejas y aprender representaciones más abstractas
de los datos. Gracias al uso de funciones de activación no lineales, las redes
multicapa pueden aproximar cualquier función continua, según el teorema de
aproximación universal.

Proceso de Entrenamiento: Retro propagación y Optimización


El entrenamiento de una red neuronal implica ajustar los pesos sinápticos para
minimizar el error de predicción. Este proceso consta de varias etapas:
Inicialización: se asignan pesos aleatorios a todas las conexiones de la red.
Propagación hacia adelante: los datos se introducen en la capa de entrada y
se transmiten hacia adelante hasta la salida, generando una predicción.
Cálculo del error: se compara la predicción con la etiqueta real mediante una
función de pérdida.
Retropropagación del error: se calcula el gradiente de la función de pérdida
respecto a cada peso utilizando derivadas parciales. Esta información se
propaga hacia atrás desde la capa de salida hasta la de entrada.
Actualización de pesos: se utilizan algoritmos de optimización (como
descenso por gradiente estocástico - SGD, Adam o RMSprop) para actualizar
los pesos en la dirección que minimiza el error.
Este ciclo se repite durante varias iteraciones (épocas) hasta que la red
alcanza un nivel de precisión aceptable. Durante este proceso, también pueden
utilizarse técnicas como regularización, normalización de datos y ajuste de
hiperparámetros para mejorar el rendimiento y evitar el sobreajuste.
Tipos de Redes Neuronales

Redes Neuronales Feedforward (FFNN)


Las redes neuronales feedforward son las más básicas y consisten en capas
donde la información fluye en una sola dirección, desde la capa de entrada
hasta la capa de salida, sin retroalimentación. No poseen memoria de entradas
anteriores, por lo que se utilizan para tareas de clasificación y regresión
estáticas, como reconocimiento de patrones o predicción de valores numéricos.

Redes Neuronales Recurrentes (RNN) y LSTM


Las RNN están diseñadas para procesar secuencias de datos, como texto,
audio o series temporales. A diferencia de las FFNN, las RNN poseen
conexiones que permiten retroalimentación, proporcionando una forma de
"memoria" que almacena información de estados anteriores. Sin embargo, las
RNN estándar sufren de problemas como el desvanecimiento o explosión del
gradiente. Para solucionarlo, se desarrollaron las LSTM (Long Short-Term
Memory), que incorporan mecanismos de puertas que controlan el flujo de
información, facilitando el aprendizaje de dependencias a largo plazo.

Redes Convoluciones (CNN)

Las CNN son especialmente eficaces para el procesamiento de datos con


estructura espacial, como imágenes y videos. Utilizan capas convolucionales
que aplican filtros para extraer características locales, seguidas de capas de
agrupamiento (pooling) que reducen la dimensionalidad, y capas
completamente conectadas al final para la toma de decisiones. Las CNN han
revolucionado el reconocimiento de imágenes, la detección de objetos y el
análisis de video.

Redes Adversarias Generativas (GANS)

Las GANS constan de dos redes que compiten entre sí: un generador que crea
datos falsos y un discriminador que evalúa su autenticidad. Este enfoque
permite generar datos sintéticos realistas, como imágenes, música o textos.
Las GANS se utilizan en tareas como generación de rostros artificiales, mejora
de resolución de imágenes, arte generativo y simulaciones.
Otras Redes Neuronales Relevantes

Autoencoders: redes utilizadas para compresión de datos, detección de


anomalías y reducción de dimensionalidad. Funcionan codificando una entrada
en una representación más compacta y luego reconstruyéndola.

Transformers: arquitectura diseñada para manejar secuencias de datos sin


recurrencia. Utiliza mecanismos de atención para identificar relaciones entre
elementos de entrada. Son fundamentales en modelos de lenguaje como
BERT, GPT y T5.

Aplicaciones de las Redes Neuronales

Reconocimiento de Imágenes

Las redes convolucionales (CNN) se emplean ampliamente en sistemas de


reconocimiento de imágenes. Aplicaciones comunes incluyen el diagnóstico por
imagen en medicina (detección de tumores en radiografías), sistemas de
vigilancia inteligente (reconocimiento facial), y análisis automático de imágenes
satelitales para monitoreo ambiental.

Procesamiento de Lenguaje Natural (PLN)

Las redes neuronales recurrentes (RNN), LSTM y transformers han


transformado el PLN. Se usan en traducción automática, análisis de
sentimiento, generación automática de texto, asistentes virtuales como Siri o
Alexa, y modelos conversacionales como ChatGPT. Estos modelos
comprenden contextos complejos, identifican relaciones gramaticales y
generan respuestas coherentes.

Diagnóstico Médico

Las redes neuronales son capaces de analizar grandes volúmenes de datos


clínicos, como imágenes, historiales médicos y resultados de laboratorio. Por
ejemplo, se utilizan CNN para detectar enfermedades oculares como la
retinopatía diabética y LSTM para predecir recaídas en enfermedades crónicas.
Esto permite un diagnóstico más rápido, preciso y accesible.
Ventajas y Desafíos

Ventajas

Capacidad de aprendizaje automático: las redes neuronales aprenden


directamente de los datos sin requerir reglas explícitas.

Modelado de relaciones no lineales: pueden capturar patrones complejos y


realizar tareas que otros algoritmos no logran con la misma precisión.

Versatilidad: se adaptan a diferentes tipos de datos: imágenes, texto, sonido,


series temporales.

Mejoras continuas: su rendimiento mejora a medida que se entrena con más


datos.

Desafíos

Necesidad de grandes volúmenes de datos: requieren datasets extensos y


etiquetados para funcionar eficazmente.

Alto costo computacional: demandan recursos significativos (GPU, memoria,


energía).

Sobreajuste (overfitting): pueden memorizar datos de entrenamiento en lugar


de generalizar.

Falta de interoperabilidad: son difíciles de explicar, lo que puede ser


problemático en entornos donde se requiere transparencia.
Herramientas y Bibliotecas

TensorFlow: desarrollado por Google, es una de las bibliotecas más populares


y potentes. Ofrece soporte para redes profundas, entrenamiento distribuido y
visualización con TensorBoard.

PyTorch: desarrollado por Facebook, destaca por su flexibilidad, facilidad de


uso y comunidad activa. Es ampliamente utilizado en investigación académica.

Keras: biblioteca de alto nivel que corre sobre TensorFlow. Ideal para
prototipado rápido y enseñanza.

Scikit-learn: aunque más centrada en aprendizaje automático tradicional,


incluye herramientas útiles para preprocesamiento y modelos básicos.

ONNX: formato abierto que permite intercambiar modelos entre distintas


plataformas y frameworks.
Estudio de un Caso Práctico.

Diagnóstico de Retinopatía Diabética con CNN (Google)

Google, en colaboración con médicos oftalmólogos, desarrolló un sistema


basado en redes neuronales convolucionales (CNN) para detectar retinopatía
diabética, una enfermedad que afecta la retina y puede causar ceguera. El
sistema fue entrenado con más de 100,000 imágenes de retina etiquetadas por
expertos. Durante la evaluación, el modelo demostró una precisión comparable
a la de los oftalmólogos humanos.

Este sistema permite realizar diagnósticos automáticos y precisos en lugares


con escasez de especialistas, reduciendo los costos y mejorando la eficiencia
del sistema de salud. Además, este caso demuestra el potencial de la
inteligencia artificial para complementar el trabajo médico, reduciendo la carga
de los profesionales y mejorando los resultados clínicos.

También podría gustarte