Conceptos básicos
Parte 1
El 90% de los datos
actuales ha sido
generado en los últimos
diez años
IBM Marketing Cloud
¿Qué es el análisis de datos?
El análisis de datos es el proceso de exploración, transformación y
examinación de datos para identificar tendencias y patrones que
revelen insights importantes y aumenten la eficiencia para respaldar
la toma de decisiones. Una estrategia moderna de análisis de datos
les permite a los sistemas y a las organizaciones trabajar a partir de
análisis automatizados en tiempo real, lo que garantiza resultados
inmediatos y de gran impacto.
Fuente: https://www.alteryx.com/es-419/glossary/data-analytics
Importancia del análisis de datos
El análisis permite a las empresas analizar sus datos en un
contexto completo de forma rápida e incluso con algunas
herramientas, un análisis en tiempo real. Con la minería de datos
de alto rendimiento, análisis predictivo, minería de texto, previsión
y optimización, las empresas que utilizan estas herramientas son
capaces de impulsar la innovación y tomar mejores decisiones de
negocio. Además están en mejor posición para optimizar el
aprendizaje automático y hacer frente a sus necesidades de
formas innovadoras.
Fuente: https://www.powerdata.es/big-data
Roles que intervienen
Herramientas de mayor uso
Tipos de análisis de datos
Fuente: https://www.alteryx.com/-/media/project/alteryx/drupal/inline-images/types-of-data-analysis.png?rev=-1&extension=webp&hash=10F2A42E01E4D8F311346B76FCE73941
El proceso de análisis de datos
El proceso de análisis de datos se basa en varios pasos y fases. Es
posible que las conclusiones de fases posteriores requieran volver
a trabajar en una fase anterior, lo que implica un proceso más
cíclico que lineal. Lo más importante es que el éxito de los procesos
de análisis de datos depende de la capacidad de repetición y
automatización de cada uno de estos pasos.
Fuente: https://www.alteryx.com/es-419/glossary/data-analytics
… Entrada Data
de datos Science
Preparación Business
de datos Intelligence
Exploración Generación
de datos de informes
Enriquecimiento
Optimización
de datos
¿Qué es el Big Data?
Cuando hablamos de Big Data nos referimos a conjuntos de datos
o combinaciones de conjuntos de datos cuyo tamaño (volumen),
complejidad (variabilidad) y velocidad de crecimiento (velocidad)
dificultan su captura, gestión, procesamiento o análisis mediante
tecnologías y herramientas convencionales, tales como bases de
datos relacionales y estadísticas convencionales o paquetes de
visualización, dentro del tiempo necesario para que sean útiles.
Fuente: https://www.powerdata.es/big-data
¿Por qué el Big Data es tan importante?
Lo que hace que Big Data sea tan útil para muchas empresas es el
hecho de que proporciona respuestas a muchas preguntas que
las empresas ni siquiera sabían que tenían. En otras palabras,
proporciona un punto de referencia. Con una cantidad tan grande
de información, los datos pueden ser moldeados o probados de
cualquier manera que la empresa considere adecuada. Al hacerlo,
las organizaciones son capaces de identificar los problemas de
una forma más comprensible.
Fuente: https://www.powerdata.es/big-data
Desafíos de la calidad de datos en Big Data
Las especiales características del Big Data hacen que su calidad
de datos se enfrente a múltiples desafíos. Se trata de las
conocidas como 5 Vs: Volumen, Velocidad, Variedad, Veracidad y
Valor, que definen la problemática del Big Data.
Estas 5 características del big data provocan que las empresas
tengan problemas para extraer datos reales y de alta calidad, de
conjuntos de datos tan masivos, cambiantes y complicados.
Fuente: https://www.powerdata.es/big-data
Las V de Big Data
Volumen Velocidad Variedad Veracidad Valor
Diferencia entre Big Data y Data Science
• Los macrodatos de Big Data se distinguen por variedad,
volumen y velocidad, en cambio el Data Science proporciona
métodos o técnicas para analizarlos.
• La inteligencia de datos proporciona el potencial de rendimiento
mientras que la ciencia de ellos utiliza enfoques variados,
además de razonamiento deductivo e inductivo.
Fuente: https://www.euroinnova.edu.es/diferencia-entre-big-data-y-data-science
• El análisis de Big Data realiza la extracción de información útil de
grandes volúmenes de conjuntos de datos; por otro lado, el Data
Science utiliza algoritmos de aprendizaje automático y métodos
estadísticos para entrenar y obtener predicciones. De esa forma, la
Ciencia de Datos no deberá confundirse con el análisis de los
Macrodatos.
• Big Data está más relacionado con la tecnología, la computación
distribuida y herramientas y software de análisis, el Data Science
se enfoca en estrategias para decisiones, diseminación de datos,
estadística, etc.
Fuente: https://www.euroinnova.edu.es/diferencia-entre-big-data-y-data-science
Tipos de datos
1. Datos estructurados
Los datos estructurados tienen
perfectamente definido la longitud, el
formato y el tamaño de sus datos.
Se almacenan en formato tabla,
hojas de cálculo o en bases de datos
relacionales.
Tipos de datos
2. Datos semiestructurados
Los datos semiestructurados no
presenta una estructura
perfectamente definida una
organización definida en sus
metadatos como por ejemplo los
formatos HTML, XML o JSON.
Tipos de datos
3. Datos no estructurados
Los datos no estructurados se
caracterizan por no tener un formato
específico.
Se almacenan en múltiples formatos
como documentos PDF o Word,
correos electrónicos, ficheros
multimedia de imagen, audio o
video…
Arquitectura Big Data
La arquitectura Big Data consiste, entonces,
en el diseño de sistemas y modelos para el
tratamiento de grandes volúmenes de datos
de diferentes tipos y orígenes con el fin de
transformarlos en información que permita
la mejor toma de decisiones.
Fuente: https://www.unir.net/ingenieria/revista/arquitectura-big-data/
Características principales de la
arquitectura Big Data
Escalabilidad Tolerancia Datos Procesamiento Localidad
a fallos distribuidos distribuido del dato
Principales tipologías de arquitecturas en
Big Data
Big Data en Big Data en Big Data
On-Premise la nube hibrido
Referencias
• https://aprenderbigdata.com/
• https://unimooc.com/cursos-abiertos/
• https://www.aprendemachinelearning.com/
? Preguntas