0% encontró este documento útil (0 votos)
60 vistas5 páginas

MLMIT

1. El machine learning tiene el potencial de mejorar la toma de decisiones en todas las industrias mediante el análisis de datos para realizar predicciones. 2. Consiste en cuatro etapas: análisis de datos, modelos de predicción, toma de decisiones e inferencia causal. 3. Se requiere un sistema de gestión de datos sólido que soporte estas tareas.

Cargado por

Oscar Perez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como TXT, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
60 vistas5 páginas

MLMIT

1. El machine learning tiene el potencial de mejorar la toma de decisiones en todas las industrias mediante el análisis de datos para realizar predicciones. 2. Consiste en cuatro etapas: análisis de datos, modelos de predicción, toma de decisiones e inferencia causal. 3. Se requiere un sistema de gestión de datos sólido que soporte estas tareas.

Cargado por

Oscar Perez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como TXT, PDF, TXT o lee en línea desde Scribd

Machine Learning

Debido a su capacidad para realizar predicciones a partir de los datos disponibles,

tiene un gran potencial para mejorar la toma de decisiones en todas las etapas del
proceso empresarial y en todas las industrias.

objetivos
1.- ¿en qué consiste el machine learning?

Las 4 etapas
1.- analisis de datos
2.- modelos de prediccion
3.- toma de decisiones
4.- inferencia causal

debe contarse con un sistema de gestión de datos de calidad que soporte estas
tareas

1. ¿Qué es el machine learning?

El machine learning para el usuario: El machine learning es simplemente un método


de
toma de decisiones basado en datos. En otras palabras, es una herramienta para
tomar
mejores decisiones gracias a lo que hemos aprendido de los datos obtenidos
previamente.

El machine learning para el experto: Desde un punto de vista intelectual, el


machine
learning consiste en una serie de métodos, modelos y algoritmos que se utilizan
para
el análisis de datos. Esto es, es una disciplina en sí con contenido técnico
propio,
con sus procedimientos, conocimientos y metodologías. El énfasis recae sobre los
datos,
que son los que determinan la calidad del resultado, más aún que la elección de los

algoritmos que se utilicen.

cumple una función muy precisa: elaborar las decisiones óptimas mediante el
análisis de datos.
Se parte, por tanto, de datos y se pretende llegar a decisiones.

El machine learning se encarga de los procesos y algoritmos que permiten ir de un


punto
al otro y para ello es fundamental plantear las preguntas correctas a los datos,
que nos
permitirán comprenderlos y, así, realizar predicciones con base en ellos.

2. Diferencias entre machine learning, estadística


e inteligencia artificial

Machine Learning: Decisiones basadas en datos, Predicciones o decisiones, PATRONES,


Informatica
Estadistica: Decisiones basadas en datos, Aprendizaje de modelos
la estadística busca modelos, mientras que el machine learning se dedica a
predecir.

el machine learning se centra en buscar patrones en estos datos para elaborar


predicciones
sobre lo que pasará en el futuro. se sirve fundamentalmente de la informática.

la estadística se ha dedicado más al aprendizaje de modelos, que se centra en el


análisis
de las observaciones presentes.

La caja negra
se parte de datos de entrada y se obtiene un dato de salida o resultado.
El experto no tiene forma de saber qué operaciones ha seguido la máquina dentro de
la
caja negra para conseguir este dato de salida: lo fundamental es el resultado.

machine learning y la inteligencia artificial (IA) comparten gran parte de los


procedimientos, pero se distinguen por sus objetivos.

Si el machine learning, como hemos visto, se propone conseguir decisiones basadas


en datos, la inteligencia artificial se plantea reproducir los comportamientos
humanos de forma artificial.

Objetivos IA: Resolver problemas, tomar decisiones, Aprender del entorno

Aun con diferentes objetivos, el machine learning y la inteligencia artificial son


disciplinas cercanas entre sí. algunos aspectos de cada uno pueden solaparse.

La inteligencia artificial tiene dos partes fundamentales: el cerebro y el músculo.

la inteligencia artificial es un campo más amplio que el machine learning.


De hecho, el machine learning es una de las herramientas que puede usar la
inteligencia
artificial en sus esfuerzos por imitar el comportamiento humano.

3. Sistema de gestión de datos

El sistema de gestión de datos es la herramienta fundamental que sostiene todas


las tareas vinculadas al machine learning

Elementos fundamentales:
Datos
Sensor (Metodos)
Sistema de base de datos (modelos)
Sistema de procesamiento de datos (algoritmos)
Datos para tomar decisiones

4. Los pilares del machine learning

1. Comprender los datos


2. Hacer predicciones
Regresión
Clasificasión
Redes Neuronales
3. Tomar decisiones sin certeza absoluta
Fundamentos
Aplicaciones
4. Determinar inferencias causales

5. Comprensión de datos
Nuestro primer paso es entender la información contenida en los datos.
Para ello, contamos con las funcionalidades que ofrecen la técnica
(consultar, segmentar y visualizar datos) y con el saber hacer más
creativo (plantear las preguntas más apropiadas).

los datos multidimensionales son muy heterogéneos y difíciles de visualizar,


porque tienen muchos valores (dimensiones) para cada dato.

La estrategia en machine learning para abordar estos datos multidimensionales


será procesarlos para reducirlos a pocas dimensiones, de modo que puedan
visualizarse y comprenderse de forma más intuitiva. Para ello, utilizaremos
el método llamado análisis de componentes principales.

[El aprendizaje no supervisado].- es una técnica de machine learning en la que


se proporciona al ordenador datos no estructurados para que identifique patrones,
estructuras y relaciones implícitos dentro de un conjunto de datos.
Se utiliza con mayor frecuencia en aplicaciones de clustering.

¿Qué entendemos por ontología en informática?


una ontología es una abstracción que sirve para clasificar entidades.
Se representa como un diagrama de árbol que parte de las entidades más
genéricas hasta las entidades más específicas.

No debemos confundir clustering con ontología.


Clustering es un método técnico para agrupar datos en grupos coherentes.
A su vez, la ontología es una organización jerárquica de entidades,
que puede realizarse mediante clustering.

6. Predicción
se quiere deducir de los datos disponibles conocimientos sobre lo que ocurrirá en
el futuro.

La filosifia del modelado predictivo.- el futuro del pasado es el futuro del


futuro.
Se presupone entonces que el conocimiento de los datos pasados permitirá deducir
los datos futuros.

Modelo predictivo.- una función que toma como entrada las características y
atributos del histórico
de datos y produce como salida una predicción.

[Aprendizaje supervisado].- es una técnica de entrenamiento propia del machine


learning.
Se proporciona al ordenador datos etiquetados (con atributos conocidos) presentando
en parejas
la información de input y de output.
se aprenden las reglas generales. Se usa con mayor frecuencia en aplicaciones de
clasificación.

metodos de aprendizaje supervisado


Regresión
Clasificacion
Deep Learning
Filtro de Kalman

Regresion.- permite predecir valores continuos (un valor cualquiera dentro de una
escala).
la regresión de un conjunto de datos correspondería a una función a la que tienden
los datos.

Clasificacion.- Con este conjunto, se pueden predecir valores discretos(uno de los


valores
predefinidos dentro de una lista de valores posibles) (método de los K-nearest
neighbors (KNN))

Deep Learning.- se basa en la construcción de redes neuronales para extraer modelos


predictivos
en entornos con muchas variables. Ha sido muy eficaz para tratar datos no
estructurados.
Hay primero una capa de datos de entrada, luego unas capas ocultas en las que la
red neuronal
procesa la información y, por último, una capa de datos de salida

Filtro Kalman.- algoritmo para reducir el ruido blanco de una función.

7. Toma de decisiones
Una vez hemos realizado una predicción, el siguiente paso es tomar una decisión en
función de
los resultados obtenidos.

partimos siempre de una situación de incertidumbre, porque las predicciones indican


probabilidad
pero nunca la certeza de que un evento ocurra.

El mayor desafío en la toma de decisiones en condiciones de incertidumbre es


encontrar el
equilibrio entre la exploración y la explotación

Explorar.- Es necesario investigar alternativas a los procesos actuales, para


descubrir si hay
opciones más eficientes o interesantes. Esto, sin embargo, supone un riesgo y un
coste.

Explotar.- Una vez conocemos que un procedimiento ha funcionado en el pasado, nos


interesa
repetirlo para disfrutar del mismo éxito.

Sistemas de decisión

El objetivo último es poder tomar las mejores decisiones posibles a partir de los
datos disponibles
y de su tratamiento. Para ello desarrollaremos un proceso de toma de decisiones
sistemático, basado
en el conocido como modelo de Markov y en las técnicas de aprendizaje por refuerzo.

+ El proceso de decisiones de Markov (MDP) es un marco teórico matemático


para la toma de
decisiones. Parte de la idea de que el agente que toma la decisión y el
entorno en la que se
toma interactúan continuamente. los resultados solo están parcialmente bajo
el control de quien
toma las decisiones y tienen un componente aleatorio. Lo único que hacemos es
optimizar la
capacidad de predicción del modelo sin intervenir aprendizaje adicional.

+ El aprendizaje por refuerzo es una técnica de machine learning en la que el


modelo aprende
a actuar en un entorno mediante un proceso de prueba y error, en función de
las recompensas
que reciba por sus acciones. El modelo debe recoger la relación entre las
decisiones tomadas
y las recompensas consiguientes.

8. Inferencia causal

consiste en identificar y atribuir las causas de un fenómeno. Se trata por tanto de


confirmar la
relación causa/efecto entre varios eventos.

una decisión ha funcionado o no?

Este es un proceso complejo que permite comprobar si una iniciativa concreta ha


tenido efectivamente
éxito o si, por el contrario, los resultados positivos se deben a otras razones.
Para ello, se recurre a controles

Control aleatorizado.- También conocido como contraste de hipótesis, consiste en un


experimento
en el que los elementos se asignan de forma aleatoria. De este modo, se evitan los
sesgos de selección.

Control sintético.- Suponen comparar los datos del grupo de estudio con los de un
grupo de control.

Experimento natural.- las condiciones experimentales están fuera del control de


los experimentadores.
Se recurre a ellos cuando no se puede realizar una experimentación controlada.

Análisis de series temporales.- analizar la evolución de los datos en el tiempo.


Destaca la causalidad
de Granger, un control por el que se comparan los datos de dos series temporales
para determinar si
una primera variable sirve para predecir una segunda variable.

También podría gustarte