Machine Learning
Debido a su capacidad para realizar predicciones a partir de los datos disponibles,
tiene un gran potencial para mejorar la toma de decisiones en todas las etapas del
proceso empresarial y en todas las industrias.
objetivos
1.- ¿en qué consiste el machine learning?
Las 4 etapas
1.- analisis de datos
2.- modelos de prediccion
3.- toma de decisiones
4.- inferencia causal
debe contarse con un sistema de gestión de datos de calidad que soporte estas
tareas
1. ¿Qué es el machine learning?
El machine learning para el usuario: El machine learning es simplemente un método
de
toma de decisiones basado en datos. En otras palabras, es una herramienta para
tomar
mejores decisiones gracias a lo que hemos aprendido de los datos obtenidos
previamente.
El machine learning para el experto: Desde un punto de vista intelectual, el
machine
learning consiste en una serie de métodos, modelos y algoritmos que se utilizan
para
el análisis de datos. Esto es, es una disciplina en sí con contenido técnico
propio,
con sus procedimientos, conocimientos y metodologías. El énfasis recae sobre los
datos,
que son los que determinan la calidad del resultado, más aún que la elección de los
algoritmos que se utilicen.
cumple una función muy precisa: elaborar las decisiones óptimas mediante el
análisis de datos.
Se parte, por tanto, de datos y se pretende llegar a decisiones.
El machine learning se encarga de los procesos y algoritmos que permiten ir de un
punto
al otro y para ello es fundamental plantear las preguntas correctas a los datos,
que nos
permitirán comprenderlos y, así, realizar predicciones con base en ellos.
2. Diferencias entre machine learning, estadística
e inteligencia artificial
Machine Learning: Decisiones basadas en datos, Predicciones o decisiones, PATRONES,
Informatica
Estadistica: Decisiones basadas en datos, Aprendizaje de modelos
la estadística busca modelos, mientras que el machine learning se dedica a
predecir.
el machine learning se centra en buscar patrones en estos datos para elaborar
predicciones
sobre lo que pasará en el futuro. se sirve fundamentalmente de la informática.
la estadística se ha dedicado más al aprendizaje de modelos, que se centra en el
análisis
de las observaciones presentes.
La caja negra
se parte de datos de entrada y se obtiene un dato de salida o resultado.
El experto no tiene forma de saber qué operaciones ha seguido la máquina dentro de
la
caja negra para conseguir este dato de salida: lo fundamental es el resultado.
machine learning y la inteligencia artificial (IA) comparten gran parte de los
procedimientos, pero se distinguen por sus objetivos.
Si el machine learning, como hemos visto, se propone conseguir decisiones basadas
en datos, la inteligencia artificial se plantea reproducir los comportamientos
humanos de forma artificial.
Objetivos IA: Resolver problemas, tomar decisiones, Aprender del entorno
Aun con diferentes objetivos, el machine learning y la inteligencia artificial son
disciplinas cercanas entre sí. algunos aspectos de cada uno pueden solaparse.
La inteligencia artificial tiene dos partes fundamentales: el cerebro y el músculo.
la inteligencia artificial es un campo más amplio que el machine learning.
De hecho, el machine learning es una de las herramientas que puede usar la
inteligencia
artificial en sus esfuerzos por imitar el comportamiento humano.
3. Sistema de gestión de datos
El sistema de gestión de datos es la herramienta fundamental que sostiene todas
las tareas vinculadas al machine learning
Elementos fundamentales:
Datos
Sensor (Metodos)
Sistema de base de datos (modelos)
Sistema de procesamiento de datos (algoritmos)
Datos para tomar decisiones
4. Los pilares del machine learning
1. Comprender los datos
2. Hacer predicciones
Regresión
Clasificasión
Redes Neuronales
3. Tomar decisiones sin certeza absoluta
Fundamentos
Aplicaciones
4. Determinar inferencias causales
5. Comprensión de datos
Nuestro primer paso es entender la información contenida en los datos.
Para ello, contamos con las funcionalidades que ofrecen la técnica
(consultar, segmentar y visualizar datos) y con el saber hacer más
creativo (plantear las preguntas más apropiadas).
los datos multidimensionales son muy heterogéneos y difíciles de visualizar,
porque tienen muchos valores (dimensiones) para cada dato.
La estrategia en machine learning para abordar estos datos multidimensionales
será procesarlos para reducirlos a pocas dimensiones, de modo que puedan
visualizarse y comprenderse de forma más intuitiva. Para ello, utilizaremos
el método llamado análisis de componentes principales.
[El aprendizaje no supervisado].- es una técnica de machine learning en la que
se proporciona al ordenador datos no estructurados para que identifique patrones,
estructuras y relaciones implícitos dentro de un conjunto de datos.
Se utiliza con mayor frecuencia en aplicaciones de clustering.
¿Qué entendemos por ontología en informática?
una ontología es una abstracción que sirve para clasificar entidades.
Se representa como un diagrama de árbol que parte de las entidades más
genéricas hasta las entidades más específicas.
No debemos confundir clustering con ontología.
Clustering es un método técnico para agrupar datos en grupos coherentes.
A su vez, la ontología es una organización jerárquica de entidades,
que puede realizarse mediante clustering.
6. Predicción
se quiere deducir de los datos disponibles conocimientos sobre lo que ocurrirá en
el futuro.
La filosifia del modelado predictivo.- el futuro del pasado es el futuro del
futuro.
Se presupone entonces que el conocimiento de los datos pasados permitirá deducir
los datos futuros.
Modelo predictivo.- una función que toma como entrada las características y
atributos del histórico
de datos y produce como salida una predicción.
[Aprendizaje supervisado].- es una técnica de entrenamiento propia del machine
learning.
Se proporciona al ordenador datos etiquetados (con atributos conocidos) presentando
en parejas
la información de input y de output.
se aprenden las reglas generales. Se usa con mayor frecuencia en aplicaciones de
clasificación.
metodos de aprendizaje supervisado
Regresión
Clasificacion
Deep Learning
Filtro de Kalman
Regresion.- permite predecir valores continuos (un valor cualquiera dentro de una
escala).
la regresión de un conjunto de datos correspondería a una función a la que tienden
los datos.
Clasificacion.- Con este conjunto, se pueden predecir valores discretos(uno de los
valores
predefinidos dentro de una lista de valores posibles) (método de los K-nearest
neighbors (KNN))
Deep Learning.- se basa en la construcción de redes neuronales para extraer modelos
predictivos
en entornos con muchas variables. Ha sido muy eficaz para tratar datos no
estructurados.
Hay primero una capa de datos de entrada, luego unas capas ocultas en las que la
red neuronal
procesa la información y, por último, una capa de datos de salida
Filtro Kalman.- algoritmo para reducir el ruido blanco de una función.
7. Toma de decisiones
Una vez hemos realizado una predicción, el siguiente paso es tomar una decisión en
función de
los resultados obtenidos.
partimos siempre de una situación de incertidumbre, porque las predicciones indican
probabilidad
pero nunca la certeza de que un evento ocurra.
El mayor desafío en la toma de decisiones en condiciones de incertidumbre es
encontrar el
equilibrio entre la exploración y la explotación
Explorar.- Es necesario investigar alternativas a los procesos actuales, para
descubrir si hay
opciones más eficientes o interesantes. Esto, sin embargo, supone un riesgo y un
coste.
Explotar.- Una vez conocemos que un procedimiento ha funcionado en el pasado, nos
interesa
repetirlo para disfrutar del mismo éxito.
Sistemas de decisión
El objetivo último es poder tomar las mejores decisiones posibles a partir de los
datos disponibles
y de su tratamiento. Para ello desarrollaremos un proceso de toma de decisiones
sistemático, basado
en el conocido como modelo de Markov y en las técnicas de aprendizaje por refuerzo.
+ El proceso de decisiones de Markov (MDP) es un marco teórico matemático
para la toma de
decisiones. Parte de la idea de que el agente que toma la decisión y el
entorno en la que se
toma interactúan continuamente. los resultados solo están parcialmente bajo
el control de quien
toma las decisiones y tienen un componente aleatorio. Lo único que hacemos es
optimizar la
capacidad de predicción del modelo sin intervenir aprendizaje adicional.
+ El aprendizaje por refuerzo es una técnica de machine learning en la que el
modelo aprende
a actuar en un entorno mediante un proceso de prueba y error, en función de
las recompensas
que reciba por sus acciones. El modelo debe recoger la relación entre las
decisiones tomadas
y las recompensas consiguientes.
8. Inferencia causal
consiste en identificar y atribuir las causas de un fenómeno. Se trata por tanto de
confirmar la
relación causa/efecto entre varios eventos.
una decisión ha funcionado o no?
Este es un proceso complejo que permite comprobar si una iniciativa concreta ha
tenido efectivamente
éxito o si, por el contrario, los resultados positivos se deben a otras razones.
Para ello, se recurre a controles
Control aleatorizado.- También conocido como contraste de hipótesis, consiste en un
experimento
en el que los elementos se asignan de forma aleatoria. De este modo, se evitan los
sesgos de selección.
Control sintético.- Suponen comparar los datos del grupo de estudio con los de un
grupo de control.
Experimento natural.- las condiciones experimentales están fuera del control de
los experimentadores.
Se recurre a ellos cuando no se puede realizar una experimentación controlada.
Análisis de series temporales.- analizar la evolución de los datos en el tiempo.
Destaca la causalidad
de Granger, un control por el que se comparan los datos de dos series temporales
para determinar si
una primera variable sirve para predecir una segunda variable.