0% encontró este documento útil (0 votos)
232 vistas97 páginas

Emociones en Tweets con Deep Learning

Este documento presenta un curso de introducción al deep learning. El curso cubrirá conceptos básicos de inteligencia artificial, las cinco tribus de machine learning, y cómo implementar modelos de deep learning para clasificar emociones en tweets usando emojis. El proyecto final involucrará configurar el ambiente de trabajo y desarrollar un modelo para esta tarea.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
232 vistas97 páginas

Emociones en Tweets con Deep Learning

Este documento presenta un curso de introducción al deep learning. El curso cubrirá conceptos básicos de inteligencia artificial, las cinco tribus de machine learning, y cómo implementar modelos de deep learning para clasificar emociones en tweets usando emojis. El proyecto final involucrará configurar el ambiente de trabajo y desarrollar un modelo para esta tarea.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Reconocimiento de emociones en tweets usando emojis

Curso de Introducción al
Deep Learning
Profesor: Omar U. Florez,
PhD

🙃 🙂 😎 🤓 🤔
😍
Conoce a tu profesor

Omar U. Florez
Contenido
1. ¿Qué es la Inteligencia Artificial?
2. Proyecto final: Clasificación de emociones humanas en
tweets usando emojis 😮😀😊😍
3. Sesión interactiva: Configurar tu ambiente de trabajo
4. Algoritmos de Deep Learning y Redes Neuronales
o Sesión interactiva: Implementando los modelos
5. Evaluando un modelo
6. Conclusión del curso
¿Qué es la Inteligencia
Artificial (IA)?
¿Qué es la Inteligencia
Artificial (IA)?
o Inteligencia Artificial esta alrededor
nuestro
o ¿Qué es IA, Machine Learning, y
Deep Learning?
o Las 5 tribus de Machine Learning
o Objetivo del curso: Entender Deep
Learning a través de un
problema de Lenguage Natural
IA ya esta alrededor nuestro
o ML esta en cualquier dispositivo
que genere datos
o Crea experiencias de usuarios
nuevas
o Netflix (Recomendación de películas)
o Facebook (Detección de rostros en fotos)
o Gmail (Detección de SPAM)
o Tesla (Self-driving cars, prevención de
colisiones, detección de conductores cansados)

o Debería importarnos la IA?


o Monetario: Mejora UX, adquisición de nuevos
clientes, efectividad de publicidad, etc.
o Ético: Automatización de tareas humanas
¿Qué es IA, Machine Learning, Deep
Learning?
Arthur Samuel
Machine Learning estudia la
construcción de algoritmos que
aprendan del pasado y hagan
predicciones del futuro basados en
datos, experiencias, conocimiento
previo (1959)
evidencias o datos (x) conclusiones
(y)
(certeza) (probabilidad)
f(x) = y

59 años
Pedro Domingos
(University of Washington)
Introducción a la
Inteligencia Artificial
o Las 5 tribus de la Inteligencia
Artificial

SIGKDD Innovation Award (2017)


Tesis: A Unified Approach to Concept Learning (1997)
Tribu Origen Master algorithm
Simbolista Lógica, filosofía Deducción inversa
Connecionista Neurociencia Backpropagation
Evolucionista Biología evolutiva Programacion genetica
Bayesiano Estadística Inferencia probabilística
Analogizador Psicología Kernel Machines

Imagen: [Link]
Tribu Origen Master algorithm
Simbolista Lógica, filosofía Deducción inversa
Connecionista Neurociencia Backpropagation
Evolucionista Biología evolutiva Programacion genetica
Bayesiano Estadística Inferencia probabilística
Analogizador Psicología Kernel Machines

f(x) = y
Simbolistas
• Aprende en base a lógica de primer
orden
• El tipo mas antiguo de inteligencia

• Ejemplo:
• x1: El hombre es mortal
• x2: Sócrates es hombre
• y: Sócrates es mortal

• x1: Si tiene una temperatura alta


• x2: Si tiene fiebre
• X3: Estaba sano en el pasado
• y: Tiene gripe

Imagen: [Link]
Tribu Origen Master algorithm
Simbolista Lógica, filosofía Deducción inversa
Conexionistas Neurociencia Backpropagation
Evolucionista Biología evolutiva Programacion genetica
Bayesiano Estadística Inferencia probabilística
Analogizador Psicología Kernel Machines

f(x) = y
Conexionistas
• Aprende a conectar elementos de entrada
representando interacciones entre
variables
• Algoritmo: Redes Neuronales, Deep
Learning
• Ejemplo:
• x: registros pasados de temperatura,
edad, síntomas
• y: tiene gripe, no tiene gripe
w1 w7 h21 y1
w2 w8
X
w3 w9
w4 w10 h22 y2
w6 w5 w11 w12

Imagen: [Link]
Tribu Origen Master algorithm
Simbolista Lógica, filosofía Deducción inversa
Conexionistas Neurociencia Backpropagation
Evolucionista Biología evolutiva Programacion genetica
Bayesiano Estadística Inferencia probabilística
Analogizador Psicología Kernel Machines

f(x) = y
Evolucionistas
• Aprende evolucionando la
representación de los elementos de
entrada y calculando una función

• Algoritmo: Algoritmos genéticos

Imagen: Towards Data Science / Becoming Human: Artificial Intelligence Magazine


Tribu Origen Master algorithm
Simbolista Lógica, filosofía Deducción inversa
Conexionistas Neurociencia Backpropagation
Evolucionista Biología evolutiva Programacion genetica
Bayesiano Estadística Inferencia probabilística
Analogizador Psicología Kernel Machines

f(x) = y
Bayesianos
• Aprende en base a probabilidad
condicional P(A|B) y el teorema de
Bayes

• Algoritmo: Bayesian Networks, Markov


Decision Process
Tribu Origen Master algorithm
Simbolista Lógica, filosofía Deducción inversa
Conexionistas Neurociencia Backpropagation
Evolucionista Biología evolutiva Programacion genetica
Bayesiano Estadística Inferencia probabilística
Analogizador Psicología Kernel Machines

f(x) = y
Analogizadores
• Aprende en base a analogías (similaridades)
para evaluar de forma similar las evidencias que
pertenece a la misma clase

• Algoritmo: Support Vector Machines (SVM), K-


nearest neighbors (KNN)
Tacto

Gusto

w1 w7 h21 y1
w2 w8
X
w3 w9
w4 w10 h22 y2
w6 w5 w11 w12

Tribu Origen Master algorithm


Simbolista Lógica, filosofía Deducción inversa
Conexionistas Neurociencia Backpropagation
Evolucionista Biología evolutiva Programacion genetica Vision
Bayesiano Estadística Inferencia probabilística
Analogizador Psicología Kernel Machines

Smell

Audición
f(x) = y (categorías o clases)

f(x) = y (valor
continuo)

f(x) f(x) o f(x) = y


Encontrar el número de grupos basados en Reducir las dimensiones de los datos de entrada de
similaridad modo que seas más fáciles de analizar
Diccionario Inglés/Español de
Inteligencia Artificial y
términos técnicos
• Backpropagation
• Bias
• Variance
• Neural network
• Projection
• Inner product
• …
o Feature
o Feature vector
o Backpropagation
o Convergence:Cuando el estado de un modelo es tan que el modelo es optimo, por ejemplo reduciendo a zero la
definición de error definida durante la optimización
o Gradient descend.
o Inteligencia artificial
o Data science
o Deep learning
o Machine learning
o Learning
o Mapping
o Learning rate
o Gradient descend:
o Parametrizar una función
o Sum of squared errors:
o Trainable parameters:
o Supervised learning
o Unsupervised learning
o Sigmoid function
o Activation function
o Perceptron
o Generalization
o Multilayer perceptron
o Long-Short Term Memory
o Reinforcement Learning: Training of an agent that interacts with an environment through a sequence of states
(observations), actions, and rewards. The agent is trained with the goal of maximizing cunulative future reward.
o Learning to act. Algorithm that learns control policies in a range of environment
o Deep RL: end-to-end approaches that uses rewards to continously transform data representations within a Deep
encoder (CNN, LSTM, MLP, etc.) considering salient features of the environment to facilitate action value
estimation.
o Hidden unit
o Entropy
o Backpropagation
o Attributes
o Weights
o Loss function
o Recurrent Neural Networks
o Convolutional Neural Network: A type of deep neural network, which uses hierarhical layers of tiles convolutional
Objetivo del Curso
Objetivo del Curso
o Aprender a crear redes neuronales que entiendanel
lenguaje natural

entrenamiento
Modelo de
x: “todo lo que te haga Deep
Learning y: joy
feliz vale la pena” f(x)=y
(😊🙂)

validación 93%
3% 4%

x: “Hoy estoy muy Modelo


entrenado
y’: joy, anger,
contento” f(x)=?
sadness
Resumen
o En esta sección has aprendido:
o ¿Qué es la Inteligencia Artificial y que tipos
de algoritmos existen
o En su definición mas pura, ML
consiste en predecir en base a
evidencias
o Los datos son evidencia
o Diferencia entre IA, ML, y DL
o En la siguiente sección:
o Mas detalles del proyecto practico del
curso: utilizar el poder de Deep Learning
para entender emociones humanas en
texto
Proyecto práctico:
Clasificación de emociones humanas
en tweets usando emojis
😮 😀 😊 😍
Proyecto práctico

o Un problema aun no resuelto: la


computación afectiva (affective
computing)
o Descripción del dataset de emojis en
español
o Ubicación: ./data/spanish_emojis.csv

o Presentación del problema:


o Clasificación de emociones humanas en tweets
usando emojis 😮😀😊😍
Affective computing – entendiendo las
emociones de las personas
Imagen: VLAB
😀 😌 😝 😉 😲 🤔

Imagen: VLAB
😌 🤔
🤔 😉
😉 😀 😝
😝 LOL
TL;DR gg

Imagen: Instagram -- [Link]


Affective computing
o Esto es más complejo que el análisis
de sentimiento tradicional
(positivo/negativo)
o Modelo dimensional de emociones
(Valence-Arousal space) creado por
Russell en el 2005, es una
proyección circular de adjetivos

Imagen: EEG-Based Emotion Recognition Using Deep Learning Network with Principal Component Based Covariate Shift Adaptation
Proyecto práctico
Sarcasm

Joy

Doubt

Anger
Flirting

Surprise

Sadness

Imagen: EEG-Based Emotion Recognition Using Deep Learning Network with Principal Component Based Covariate Shift Adaptation
Proyecto práctico

o Esto es más complejo que el


análisis de sentimiento
tradicional (positivo/negativo)
😠😡😤 😊😊
o Simplificación del rango de las
emociones humanas entre
o Joy (alegría) 😊😊 😞😟🙁🙁
o Sadness (tristeza) 😞😟🙁🙁
o Anger (molestia) 😠😡😤

Imagen: EEG-Based Emotion Recognition Using Deep Learning Network with Principal Component Based Covariate Shift Adaptation
Regla: Un algoritmo de
MachineConoce a tu professor:
Learning es
Omar U. Florez
tan exacto como los
datos que se han
utilizado para poder
entrenarlo y el
conocimiento o
dominio del problema
Dataset
o Descripción del dataset de emojis en español
o git clone [Link]
florez/learning_emotions_with_emojis
o Ubicación: ./data/spanish_emojis.csv
o Recolectados durante dos semanas generando 150,000
tweets reales desde Twitter.
o Solo face emojis
o Escojidos:
😊🙂😞😟🙁🙁😠😡😤
o Disponibles:
😀😁😂😃😄😅😆😇😉😊😋😌😍😎😏😐😑
😒😓😔😕😖😗😘😙😚😛😜😝😞😟😠😡😢
😣😤😥😦😧😨😩😪😫😬😭😮😯😰😱😲😳
😴😵😶😷🙁🙂🙃🙄🤐🤑🤒🤓🤔🤕🤗

Imagen: EEG-Based Emotion Recognition Using Deep Learning Network with Principal Component Based Covariate Shift Adaptation
Resumen
o En esta sección has aprendido:
o Affective computing es uno de los
problemas de más interesantes en
Inteligencia Artificial, mas no resuelto aun
o Más detalles del dataset que utilizaremos
en el curso
o Este contiene tweets que contiene emojis
y escritos por gente real en español
o En la siguiente sección:
o Te mostrare como configurar tu ambiente
de trabajo con todas las librerías
necesarias para correr el código
Sesión interactiva:
Configurar tu ambiente de trabajo
Configura tu ambiente de
trabajo
o Clonar el proyecto del curso desde Github
o git clone [Link]
florez/learning_emotions_with_emojis

o Usar virtualenv para instalar las librerías en Python


o pip install virtualenv
o virtualenv deeplearning_env
o source deeplearning_env/bin/activate
o cd learning_emotions_with_emojis
o pip list
o pip install -r [Link]
o pip list
o cat [Link]
o python experiments/run_model.py
Herramientas
o Librerías de algebra lineal y análisis de datos
o NumPy ([Link]
o Pandas ([Link]

o Frameworks de Machine Learning (redes neuronales y


optimizadores matemáticos)
o Tensorflow ([Link]
o Scikit-learn ([Link]
Resumen
o En esta sección has aprendido:
o ¿Cómo configurar un ambiente de
trabajo para construir el proyecto en los
siguientes módulos
o En la siguiente sección:
o Discutir de forma detallada de 3
modelos de machine learning para
entender el lenguaje natural
Conceptos básicos
Contenido

o ¿Qué es una neurona?


o ¿Qué es una red neuronal?
o ¿Como aprende una red neuronal?
o Función de costo (loss function)
o Aprendizaje basado en gradientes:
Algoritmo de backpropagation
o Stochastic Gradient Descend
¿Qué es una neurona?
o La combinación lineal de las observaciones ponderadas por los
pesos de la neurona
o Seguida por una función de activación no lineal f(z)
Datos Pesos Función
de entrada (X) (W) de activación f(x)
x1 w1
x2 w2 z f(z)
w3
x3
¿Qué es una neurona?
o La combinación lineal de las observaciones ponderadas por los
pesos de la neurona
o Seguida por una función de activación no lineal f(z)

z = x1*w1 + x2*w2 + x3*w3 1.0

0.0
x1 w1
x2 w2 z f(z)
w3
x3
¿Qué es una neurona?
o La combinación lineal de las observaciones ponderadas por los
pesos de la neurona
o Seguida por una función de activación no lineal f(z)

z = me*0.1 + siento*0.2 + feliz*0.9 1.0

0.0
me 0.1
siento 0.2 z f(z)
0.9
feliz
¿Qué es una neurona?
o El producto punto (dot product), toma dos vectores y retorna un
valor que representa su similaridad

z = x1*w1 + x2*w2 + x3*w3 = = W•X

x1 w1 Salida: sigmoid(x1*w1 + x2*w2 + x3*w3 )


x2 w2 z f(z)
w3
x3 Función
Pesos de activación f(z)
Datos (W)
de entrada (X)
Regla: ¿Qué función de activación utilizar?

Imagen: Understanding the difficulty of training deep feedforward neural networks (Xavier Glorot y Yoshua Bengio)
¿Qué es una red
neuronal?
o Es un grupo de neuronas distribuidas en capas y conectadas
por sus pesos
o La salida de una neurona, es la entrada de otra
Entrada Pesos Sigmoid Pesos Softmax Actual
labels
w1 w7 h21 y1
w2 w8
X
w3 w9
w4 w10 h22 y2
w6 w5 w11 w12
¿Qué es una red
neuronal?
o Es un grupo de neuronas distribuidas en capas y conectadas
por sus pesos
o La salida de una neurona, es la entrada de otra
Entrada Pesos Sigmoid Pesos Softmax Actual
labels
w1 w7 h21 y1
w2 w8
X
w3 w9
w4 w10 h22 y2
w6 w5 w11 w12

Capa de Capa Capa de


entrada escondida salida
¿Qué es una red neuronal?
o Es un grupo de neuronas distribuidas en capas y conectadas
por sus pesos
o La salida de una neurona, es la entrada de otra (composición)
Entrada Pesos Sigmoid Pesos Softmax Actual
labels
w1 w7 h21 y1
w2 w8
X
w3 w9
w4 w10 h22 y2
w6 w5 w11 w12

x1 w3
w4
x2
¿Qué es una red neuronal?
o Los pesos se almacenan lógicamente en matrices
o Filas: numero de neuronas en la capa anterior
o Columnas: numero de neuronas en la capa actual
Entrada Pesos Sigmoid Pesos Softmax Actual
labels
w1 w7 h21 y1
w2 w8
X
w3 w9
w4 w10 h22 y2
w6 w5 w11 w12
¿Qué es una red neuronal?
o El producto de una capa y su respectivo matriz de pesos
proyecta los datos de entrada a otra capa en donde existe un
nuevo espacio matemático (vector embeddings)
Entrada Pesos Sigmoid Pesos Softmax Actual
labels
w1 w7 h21 y1
w2 w8
X
w3 w9
w4 w10 h22 y2
w6 w5 w11 w12

* *
¿Qué es una red neuronal?
o Cuando los pesos de la red neuronal se optimizan, podemos
también decir que hemos aprendido una nueva representación
de los datos (feature learning) que tiene características muy
interesantes…
Entrada Pesos Sigmoid Pesos Softmax Actual
labels
w1 w7 h21 y1
w2 w8
X
w3 w9
w4 w10 h22 y2
w6 w5 w11 w12

* *
¿Qué es una red neuronal?
o Es un grupo de neuronas distribuidas en capas y conectadas
por sus pesos
o La salida de una neurona, es la entrada de otra (composición)
Entrada Pesos Sigmoid Pesos Softmax Actual
labels
w1 w7 h21 y1
w2 w8
X
w3 w9
w4 w10 h22 y2
w6 w5 w11 w12
Valor Valor
predicho real

Softmax(f2(Sigmoid(f1(x))))

Profundidad (DEEP learning)


Vector mapping
Regla: El secreto de Deep
Learning es su capacidad para
crear vectores que contienen
Conocecomplejas
transformaciones a tu professor:
de
Omar U.
los datos de entrada. Florez
Mientras
más capas posea una red
neuronal, será más profunda, y
creará mejores características
para clasificar (feature
engineering)
Función Softmax(z)
o Convierte a probabilidades los logits (log-probabilities) que son
la salida no normalizada de una red neuronal o los valores que
se encuentran en la ultima capa

93%
3% 4%
Modelo de
x: “Hoy estoy muy Deep y’: joy, anger,
Learning
contento” f(x)=y sadness

Softmax(f2(Sigmoid(f1(x))))
¿Cómo aprende una red neuronal?
¿Cómo aprende una red neuronal?

Entrada Pesos1 Sigmoid Pesos2 Softmax Predicted


labels
σ σ

* *
Forward (propagación hacia adelante)

h2
W2
h1

W1

X f(x)=h2
h2
W2
h1

W1

X f(x)=h2
Valor Valor
real predicho

h2
W2
h1

W1

X f(x)=h2
Clase1 Clase2 Clase1 Clase2

[1.0, 0.0] [0.7, 0.3]

h2
W2
h1

W1

X f(x)=h2
Backpropagation

h2
W2
h1

W1

X
Backpropagation

Gradientes
h2
W2
h1

W1

X
h2
W2
h1

W1

La matemática detrás de
como las redes
neuronales aprenden
Navegando la superficie de error con gradientes
Navegando la superficie de error con gradientes
Navegando la superficie de error con gradientes

El objetivo es cambiar los pesos de la


red neuronal (parámetros entrenables)
un pequeño paso en la dirección que
minimice el error (loss)
Navegando la superficie de error con gradientes
Stochastic Gradient Descend (SGD)

3
Velocidad de aprendizaje o Learning rate ( )

3
Mínimos locales comparables
Saddle point y otros algoritmos de
optimización
Regla: Un algoritmo de deep
learning demora tanto en entrenar
(entre otras cosas) porque
Conoce
eventualmente a tu muchos
encuentra professor:
mínimos locales en la superficie
de error. Omar U. Florez
• Disminuye el learning rate en el tiempo
• Usa una función de activación lineal
(ReLU)
• Usa una optimizador adaptativo (Adam,
[Link]())
Resumen
o Entrenar un modelo de Deep Learning es
aproximar iterativamente una función
matemática: f(x) = y
o Los pesos de una red neuronal
transforman el espacio actual a uno donde
ciertas restricciones toman lugar
o Minimizar nuestra propia definición de
error (loss function)
o La minimización sucede en términos de
gradientes
o Eso significa que cada paso del algoritmo
que utilicemos debe ser diferenciable, es
decir la primera derivada de cada función
debe existir
Algoritmos de Deep Learning
y Redes Neuronales
Contenido
o Modelo #1: Logistic Classifier
o Sesión interactiva: Implementación de Logistic
Classifier
o Modelo #2: Multi Layer Perceptron (MLP)
o Sesión interactiva: Implementación de MLP
o Modelo #3: Long-Short Term Memory
(LSTM)
o Sesión interactiva: Implementación de LSTM
o Comparando el error de los tres modelos
entrenados
Logistic classifier Multi Layer Perceptron (MLP)

Entrad Salida Entrad Escondida Salida


a a
w1 h21 w1 w7 h21
w2 w2 w8
w3 w3 w9
w4 h22 w4 w10 h22
w5 w6 w6 w11 w12
w5

Long Short Term Memory (LSTM)


t=0 t=1 t=2
Salida

y’ = f(x)
Memoria

Entrada
Logistic classifier

Entrad Salida
a
w1 h11
w2
w3
w4 h12
w5 w6

X = [N, M] W = [M, C] h = [N, K]

X: Datos de entrada
W: Pesos
H: Capa de salida
N: Número de observaciones
M: Número de dimensiones (entrada)
K: Número de clases (salida)
Y: Categorías (clases)
Multi Layer Perceptron (MLP)

Entrad Escondida Salida


a
w1 w7 h21
w2 w8
w3 w9
w4 w10 h22
w6 w5 w11 w12

X: Datos de entrada
W: Pesos
H: Capa de salida
N: Número de observaciones
M: Número de dimensiones (entrada)
K: Número de clases (salida)
Y: Categorías (clases)
y’ = f(x)
Long Short Term Memory
(LSTM) t-1 t t+1
Salida

c c

Memoria

Entrada
xt-1 xt xt+1

X: Datos de entrada
W: Pesos
H: Capa de salida
N: Número de observaciones
M: Número de dimensiones (entrada)
K: Número de clases (salida)
Y: Categorías (clases)
C: Memoria
Long Short Term Memory LSTM
• LSTM aprende en base a secuencias xt recordando dependencias
temporales que influyen en el presente
• Para esto utiliza una memoria interna c en la cual aprende a leer,
escribir, y borrar información
• Cada observación en el tiempo t se le asigna una unidad la cual
produce una salida ht y propaga hacia el futuro una representación de
su memoria ct

hoy me siento …
bien
Memoria
Long Short
Interna
Term Memory LSTM
memoria ct
ht-1 ht ht+1

ct-1 x + ct
tanh
x x
tanh
ht-1 ht

xt-1 xt Xt+1

hoy me siento
Memoria Interna
• La memoria interna c es donde se almacena información como
donde leer y escribir regulada por capas llamadas gates
(compuertas)

Gate para olvidar: forget (ft)


Gate para escribir: input (it)
Gate para leer: output (ot)
Long Short Term Memory LSTM
• Cada gate es una capa neuronal entrenable que controla la
cantidad de información yendo a memoria

• Una función Sigmoid aproxima la probabilidad de impactar la


memoria con una probabilidad de 0% a 100%
Long Short Term Memory LSTM
• LSTM obtiene la representación del texto en el último vector
ht el cual captura la dependencia temporal de todas las
unidades

• El tamaño de la memoria y el número de unidades LSTM


controlan la complejidad que el modelo pueda aprender
Dimensiones y one hot encoding
Yi : [batch_size, num_classes]

c0: [batch_size, state_size] ht: [batch_size, state_size]


h0: [batch_size, state_size]

X_onehot: seq_max_len x [batch_size, vocab_size]

X: [batch_size, seq_max_len]
Valores de error (loss) durante el
entrenamiento
Resumen
o En esta sección has aprendido:
o Tres tipos de modelos incluyendo una
especializada para aprender secuencias,
ideal para aprender texto
o Logistic classifier, MLP, y LSTM
o Hemos comparado estos modelos y
vimos como se reduce la función de
costo (loss function)
o En la siguiente sección:
o Discutiremos diversas formas de
comparar modelos mientras son
entrenados
Evaluando un Modelo
Precisión
• La precisión (precision) es la cantidad de predicciones
correctas dentro del conjunto retornado como respuesta por la
red neuronal

Logistic Multi Layer Long Short Term


classifier Perceptron (MLP) Memory (LSTM)
Accuracy, Recall, y F1
• La exactitud (accuracy) mide cuan cerca esta el modelo en
predecir el valor real
• La precisión (precision) es una medida de acuerdo en la
predicción
Valor
predicho

Valor real

Elementos retornados por la red neuronal

Imagen: Wikipedia
Confussion Matrix
• La matrix de confusion mide la precision por cada clase

Logistic Multi Layer Long Short Term


classifier Perceptron (MLP) Memory (LSTM)
Resumen
o En esta sección has aprendido:
o Diversas medidas para medir la
predicción de un modelo
o Precision, Accuracy, Recall, F1 score,
confussion matrix
o Visualizado la precisión y matriz de
confusión por los modelos usados en
esta clase
o En la siguiente sección:
o Palabras finales y la ética de la
Inteligencia Artificial
Conclusión del Curso
Ética & IA
• A gran poder, gran responsabilidad
• Datos sensibles (raza, genero, edad, país, etc.)
• Que significa ser Latino o Latina en épocas de IA?
• Inteligencia Artificial en Español con Platzi
Palabras finales
• Las ideas, no la tecnología, mueve al mundo
• Inteligencia Artificial para jóvenes
• Inteligencia Artificial en Español

También podría gustarte