Tema 7
Big Data y Analytics
Tema 7. Visualización
Índice
Esquema
Ideas clave
7.1. Introducción y objetivos
7.2. Introducción a la visualización de datos
7.3. Trabajar con datos
7.4. Definición y tipología de gráficos
7.5. Visualización estática
7.6. Visualización dinámica
7.7. Herramientas de visualización
7.8. Visualización en escenarios IoT
7.9. Referencias bibliográficas
A fondo
Diseño de la información y visualización de datos
The Data Visualisation Catalogue
Herramientas de procesado y visualización de datos
Hans Rosling: The best stats you've ever seen
The beauty of data visualization
Test
Esquema
Big Data y Analytics 3
Tema 7. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
7.1. Introducción y objetivos
Una de las herramientas más potentes para el análisis de datos es, sin duda, su
visualización. En este sentido, dentro de las capas de consumo de datos en una
arquitectura big data la presentación de datos, información y conocimiento juega un
papel fundamental.
La representación de grandes cantidades de información de forma gráfica facilita en
gran medida su comprensión y asimilación. Sin embargo, el proceso de creación de
infografías, gráficas u otras visualizaciones no es trivial y requiere un amplio
conocimiento del ámbito para poder realizarlo de forma eficiente y eficaz.
Este tema nos introduce en los términos infografía y visualización de datos.
Además de hacer hincapié en la importancia que cobra esta disciplina en el mundo
de los escenarios IoT, aprenderemos los pasos a seguir a la hora de elaborar una
visualización, desde que se concibe la idea inicial hasta que su representación final
llega al público.
Para ello, se estudian conceptos básicos relacionados con el trabajo con datos y se
explican las distintas etapas de este proceso que deben seguirse. Por otro lado, se
describen los tipos de gráficos más relevantes que podemos encontrar,
distinguiendo entre gráficos figurativos y los que no lo son.
Además, se introducen los conceptos de visualización estática, dinámica e
interactiva, presentando las herramientas más relevantes para la elaboración de
visualizaciones de datos, tanto de código abierto como con licencias propietarias.
Así pues, en este tema los objetivos a abordar serán los siguientes:
▸ Entender los diferentes elementos que componen las infografías y las técnicas de
visualización de datos, así como sus distintos estadios.
Big Data y Analytics 4
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
▸ Estudiar las diferentes fases que forman parte del proceso de tratamiento de los
datos de cara a su visualización, algunos de los tipos de gráficos más
empleados, así como las principales diferencias entre la visualización estática y
dinámica.
▸ Conocer las diferentes tecnologías y lenguajes de desarrollo en el ámbito de la
visualización de datos en entornos web y en el área de la ciencia de datos.
▸ Explorar las principales herramientas de inteligencia empresarial (business
intelligence) existentes en el ámbito de la visualización de datos y cómo pueden ser
utilizadas en entornos industriales.
▸ Conocer algunos casos de uso reales en los que se utilizan técnicas de
visualización de datos aplicadas a escenarios IoT.
Big Data y Analytics 5
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
7.2. Introducción a la visualización de datos
La primera pregunta que nos interesa considerar sería «¿por qué visualizar los
datos?». Los humanos están dotados de un potente sistema visual que es capaz
de establecer patrones a gran velocidad. Esta capacidad de percepción inherente a
nuestra condición humana nos permite alcanzar altos niveles de conocimiento.
El rápido e imparable aumento del volumen de información en las últimas décadas ha
hecho imprescindible acercarse al conocimiento de modos y técnicas para
representarla visualmente y mostrarla al público, de modo que este sea capaz de
extraer múltiples conclusiones. Recopilar y analizar los datos para finalmente
diseñar una visualización es el punto final a todo un proceso que tiene su origen en
la búsqueda del mensaje subyacente a un conjunto de datos.
La aplicación de big data en escenarios IoT requiere visualizaciones potentes que
ayuden a entender los datos mostrados, a explicar mejor un concepto o,
simplemente, a sintetizar el contenido de un volumen elevado de datos. Algunos
ejemplos prácticos los encontramos en la elaboración de mapas, la representación
de valores recogidos por estaciones meteorológicas o dispositivos wearables en
gráficas e infografías en diferentes portales web y aplicaciones móviles o en los
cuadros de mando en forma de dashboards que nos proponen los nuevos sistemas
de business intelligence.
Infografía y visualización de datos
A menudo se habla de los términos infografía y visualización de datos como
campos diferentes e independientes el uno del otro. Si bien es cierto que las
primeras representaciones infográficas cuentan con varios siglos de antigüedad, las
visualizaciones de datos tampoco son un invento reciente. Además, y como veremos
más adelante, en ocasiones una infografía y una visualización de datos pueden
diluirse y dar lugar a una sola estructura con una finalidad común.
Big Data y Analytics 6
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 1. Infografía sobre las aplicaciones IoT en el ámbito del healthcare desarrollada por FutureForAll.
Fuente: https://www.futureforall.org/images/iot-medical-750.jpg
Por un lado, una infografía es una forma de representar información a través de la
combinación de gráficos (ilustraciones, diagramas, mapas y otros recursos) y texto.
Big Data y Analytics 7
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 2. Ejemplo de infografía sobre el IoT desarrollada por Phoenix Internet. Fuente:
https://www.phoenixinternet.com/wp-content/uploads/2019/07/Infographic__PHOENIX_IOT.jpg
Por otro lado, una visualización de datos es un término tradicionalmente más
cercano a la comunidad científica con el que referirse a la creación de
representaciones visuales (realizadas informáticamente y normalmente dotadas de
interactividad) de datos abstractos con el fin de que el público pueda analizarlos y
ampliar su conocimiento.
Big Data y Analytics 8
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 3. Ejemplo de visualización de datos desarrollada por el Instituto Tecnológico de Castilla y León
(ITCL) acerca de la industra 4.0 Fuente: https://itcl.es/sta-servicios/industria-conectada-y-sostenible/
A lo largo de este tema se utilizarán los términos infografía y visualización
indistintamente por su naturaleza común y los muchos elementos estructurales que
comparten.
Ambos términos responden a un mismo objetivo común: ayudar a comprender una
información e invitar al análisis y la reflexión sobre el mismo. De este modo, el
receptor de la información puede descubrir patrones y relaciones hasta ahora
desconocidas, es decir, permite inferir conocimiento.
Importancia de la infografía y la visualización de datos
Big Data y Analytics 9
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
¿Por qué visualizar los datos? La infografía y la visualización permiten que el público
pueda percibir rápidamente las relaciones entre los datos. Uno de los grandes
beneficios de la visualización es la cantidad de información pura que puede ser
interpretada en décimas de segundo. Esto es posible gracias a que utiliza el mismo
lenguaje que nuestro propio sistema cognitivo.
Un ejemplo práctico de aplicación IoT industrial de la importancia de la infografía y la
visualización de datos podemos encontrarlo en el análisis de consumos
energéticos de las distintas sedes de una industria multinacional.
En primer lugar, se dispone de los datos en bruto, los cuales forman tablas enormes
y difíciles de entender.
Figura 4. Ejemplo de dashboard para la monitorización de la producción y consumo energético (Bold BI).
Fuente: https://samples.boldbi.com/solutions/energy/energy-monitoring-dashboard
La representación de estos valores en gráficas de barras nos ayudaría a entender
mejor la información, pudiendo apreciar comparaciones y evoluciones, entre otros
aspectos. Por otro lado, podría desarrollarse una infografía consistente en la
representación de todas las sedes en un mapa mediante círculos de diferentes áreas
en función de su consumo energético.
Big Data y Analytics 10
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Otro ejemplo práctico, en este caso en el ámbito del IoT de consumo, son las
aplicaciones de monitorización de la actividad física de los usuarios, como
Google Fit, Apple Fitness (antes Activity), Freeletics, etc. En estos casos se recoge
información (GPS, acelerómetros, pulso, ECG, peso, etc.) a partir de pulseras de
actividad, smartwatches, básculas conectadas y el propio smartphone para
monitorizar la actividad física y proporcionar recomendaciones para evitar el
sedentarismo.
Figura 5. Google Fit (Google España Blog oficial). Fuente: Xataka, 2019.
En este caso, la información mostrada ha de ser suficientemente atractiva y
comprensible para todos los usuarios, pues el público de la visualización es
diferente que en un escenario especializado en el cual analistas o expertos en BI
escudriñan la información.
En definitiva, infografía o visualización juegan un papel fundamental en el momento
Big Data y Analytics 11
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
actual debido a que la cantidad de información disponible se multiplica sin cesar y
necesita ser filtrada y organizada. Así, el público podrá informarse desde un
enfoque más analítico y dar respuesta a una pregunta o formular cuestiones nuevas.
Estadios de la visualización
En líneas generales, podemos distinguir cinco estadios básicos en el proceso de la
visualización:
▸ 1. Investigación.
▸ 2. Selección de datos.
▸ 3. Creación de un boceto.
▸ 4. Elaboración.
▸ 5. Percepción y conocimiento.
Estas etapas pueden variar entre unos profesionales y otros, e incluso se puede
retroceder a etapas previas, sobre todo en los niveles 1, 2 y 3, con el fin de
enriquecer o matizar algún punto del proceso. Estos estadios son definidos con
mayor detalle en la figura 6.
Big Data y Analytics 12
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 6. Etapas que componen el proceso de visualización. Fuente: Elaboración propia.
▸ 1. Investigación. Una vez seleccionado el tema sobre el que se va a trabajar y
realizar la visualización, comienza el proceso de investigación. Una buena
investigación parte siempre de la búsqueda y recopilación de fuentes de
información sólidas. Es necesario identificar qué fuente o fuentes pueden
proporcionar la información más precisa para elaborar la infografía y para dar
respuesta a la pregunta o preguntas planteadas inicialmente. Para ello, en muchas
ocasiones se puede hacer uso de las fuentes de datos abiertas existentes en
Internet. Además, siempre que exista al menos otra fuente, es imprescindible
contrastar los datos entre ellas.
Big Data y Analytics 13
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
▸ 2. Selección de datos. Con el material recopilado, el diseñador habrá de realizar
una selección de aquella información que sea susceptible de formar parte del gráfico.
Para ello, organizará la información de manera que pueda ser transformada en
artefactos fáciles de manipular.
▸ 3. Creación de un boceto. Un boceto es un esquema previo a la ejecución de la
visualización. Es una materialización embrionaria de nuestras imágenes mentales,
representaciones muy rápidas, simples y con poco detalle, pero que para el analista
de datos suponen una guía orientativa del trabajo que se realizará más tarde.
Normalmente el boceto contiene la estructura primaria y algunos apuntes básicos, en
cualquier momento modificables, de lo que será el proyecto visual. El objetivo
fundamental es escoger la mejor manera de representar la información ya
sintetizada. En este sentido, se pueden emplear herramientas de creación de mock-
ups (para dashboards, aplicativos web o aplicaciones móviles).
▸ 4. Elaboración. El proceso de elaboración de una visualización da como resultado
una representación en la que mostramos las ideas que ya han sido
completamente desarrolladas. En este estadio, los datos son transformados en
una representación comprensible por los receptores de la información. A este
respecto, se llevará a cabo un proceso de selección de la herramienta o
herramientas más adecuadas para llevar a cabo nuestra visualización.
Big Data y Analytics 14
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
▸ 5. Percepción y conocimiento. El último estadio del proceso de visualización, una
vez que esta ha sido publicada, es la percepción y el conocimiento. En el momento
en que la retina del ojo humano ve una imagen, el cerebro percibe parte de lo
observado e inicia el proceso cognitivo a través del cual asimila y procesa los datos.
Big Data y Analytics 15
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
7.3. Trabajar con datos
En la actualidad es habitual escuchar la expresión «la información es poder». Sin
embargo, en realidad, la idea que subyace no es válida, sino que deberíamos
aceptar mejor la expresión «el conocimiento es poder, la información no», ofrecida
por el filósofo R. Lewis (Alcalde, 2015).
En efecto, la cantidad de información a nuestro alcance, desde la popularización de
Internet, es realmente abrumadora. La capacidad de almacenarla, incluso a nivel
personal, es cada vez mayor con la ayuda de sistemas de almacenamiento en la
nube orientados a usuario final, como pueden ser Dropbox, Google Drive,
OneDrive o iCloud.
Estos sistemas, a su vez, están basados en servicios de almacenamiento de
objetos en la nube, como son Simple Storage Service (S3) de Amazon Web
Services (AWS), Blob Storage de Microsoft Azure o Google Cloud Storage de Google
Cloud Platform (GCP).
Asimismo, existen diferentes servicios de bases de datos como servicio (database
as a service , DbaaS), bien sean relacionales (por ejemplo, AWS RDS, Azure SQL
Database, Google Cloud SQL, Google Cloud Spanner) o NoSQL (AWS DynamoDB,
Azure Cosmos DB, Google Cloud Datastore, Google Cloud Bigtable), así como data
warehouses gestionados (AWS Redshift, Azure SQL Data Warehouse, Google
Cloud BigQuery).
Resulta, por tanto, sumamente complicado absorber toda esta información y extraer
de ella el conocimiento que necesitamos. De este modo, queda cada vez más
patente que lo complicado ya no es tanto capturar y almacenar datos, sino su análisis
de cara a poder representar posteriormente de forma adecuada y comprensible dicha
información de forma estática o dinámica.
Big Data y Analytics 16
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Para comunicar adecuadamente de forma gráfica nuestra visión sobre un conjunto
de datos, estos se han de mostrar atendiendo a criterios estratégicos. Es
importante visualizar esos datos de manera que se puedan comprender
adecuadamente y, gracias a ello, tomar decisiones informadas y correctas.
Cuando se trata de convertir datos en información, los datos de los que se parte
tienen una gran importancia. Estos pueden ser simples factoides (de los que alguien
más ya ha realizado todo el análisis) o transacciones en bruto, donde la
exploración se deja enteramente al usuario.
De cara a su correcta visualización, un paso imprescindible que ha de ser llevado a
cabo es ser capaz de analizar e identificar los tipos de variables que conforman
un conjunto de datos, ya que de la tipología de estas variables dependerá en gran
medida qué expresión gráfica será más eficaz. Entre las diferentes variables
podemos diferenciar las siguientes:
▸ Categóricas: aquellas cuyos posibles valores representan categorías y que pueden
ser:
• Nominales: las diferentes posibles categorías no presentan un orden
predeterminado entre sí, como por ejemplo la variable «género literario»: ficción,
terror, romance, etc.
• Ordinales: aquellas en las que sí existe un orden predeterminado, como en la
variable «titulación académica»: grado, máster, doctorado, etc.
▸ Cuantitativas: aquellas cuyos posibles valores representan numéricamente
cantidades o mediciones.
Big Data y Analytics 17
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
• Continuas: los valores pueden tomar decimales (número reales).
• Discretas: los valores no pueden presentar una parte fraccionaria (números
enteros).
Recolección de datos
La recolección de datos es esencial para la adecuada visualización del conocimiento
que se desprende de los mismos por los sesgos que se pueden producir. Para esta
recolección se pueden usar técnicas no triviales, como el correcto diseño de
encuestas que han de cumplimentar los trabajadores de determinados
departamentos, hasta las utilizadas en grandes sistemas que coleccionan datos de
cientos de miles de dispositivos IoT o sensores en fábricas para su posterior análisis
con herramientas de big data.
Por otro lado, la recolección de datos no solo se realiza con recursos propios, sino
que pueden utilizarse datos de terceros. Estas fuentes de datos externas pueden
ser:
▸ Públicas: como ya hemos expuesto en temas previos, hoy día existen muchísimas
fuentes de datos externas accesibles gracias al movimiento de contenidos abiertos
(open data, linked open data —LOD—, big and open linked data —BOLD—), donde
se comparten (y compartimos) datos para su análisis libre por terceros.
• Muchas instituciones, gobiernos y organizaciones han establecido políticas de
liberación de datos al público en pro de la transparencia.
• También las empresas privadas publican en ocasiones fuentes de datos abiertas con
el fin de fomentar que la comunidad académica u otras empresas resuelvan un
problema que ha de afrontar la empresa que publica los datos o una parte o la
Big Data y Analytics 18
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
totalidad de la sociedad en general.
▸ Privadas: puede suceder que en algún momento tengamos acceso a un conjunto de
datos especial debido a nuestro estatus dentro de una red en particular, o bien que
se trate de datos a la venta por terceros para los que se ha de firmar una licencia de
acceso y uso especial, así como abonar una cantidad económica a cambio de la
misma.
Preparación y limpieza de datos
Es importante llevar a cabo tareas preliminares de preparación de los datos,
especialmente cuando se trata de datos recolectados por terceros. Aunque buena
parte de estas tareas se pueden agilizar con herramientas informáticas, casi siempre
hay una parte de labor manual que suele hacer de esta fase una etapa ingrata para
muchos.
La preparación de datos puede ser llevada a cabo de numerosas formas diferentes,
todas ellas complementarias entre sí:
▸ Separar los campos que nos serán útiles. Por ejemplo, en las direcciones
postales separar la calle de la ciudad y la provincia.
▸ Identificar datos incompletos y vacíos.
▸ Uniformizar unidades y realizar conversiones de unidades de medida. Por
ejemplo, si existen para un campo cantidades expresadas a la vez en centímetros o
en pulgadas en diferentes registros, o en metros y kilómetros al mismo tiempo.
Big Data y Analytics 19
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Tras la preparación de datos, se debe realizar la limpieza de datos (en ocasiones
esta etapa es conocida también como fregado de los datos o depuración de los
datos, usándose los términos data cleaning, data scrubbing o data cleansing; de
hecho, también se considera con frecuencia a la limpieza de datos una fase dentro
de la depuración de los datos y esta, a su vez, dentro de la preparación de los datos):
▸ Identificar datos erróneos o carentes de sentido. Por ejemplo, un valor «1234» en un
campo utilizado para nombres de personas.
▸ Eliminar duplicados.
▸ Verificar rangos. Por ejemplo, un dato de temperatura ambiente que difícilmente
puede ser de 224 °C en la superficie de la Tierra.
▸ Verificar ortografía y errores tipográficos.
▸ Examinar la sintaxis utilizando patrones y expresiones regulares. Por ejemplo, para
verificar el formato de direcciones de correo electrónico.
Transformación de datos
La transformación de datos es uno de los procedimientos de manipulación más
comunes que pueden revelar características ocultas de los datos que no son
observables en su forma original.
Podemos transformar la distribución de los datos para hacerlos más fáciles de
observar y para que se cumplan los requisitos de numerosas pruebas
estadísticas. Esto normalmente se realiza sustituyendo una variable por una función
matemática que opera sobre dicha variable.
Big Data y Analytics 20
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Una de las suposiciones más frecuentes de las pruebas estadísticas es que los datos
tengan una distribución normal (en forma de campana de Gauss con datos
dispersos en torno a un valor central, tal y como puede observarse en la figura 7).
Los valores sesgados, al contrario que la distribución normal, tienden a presentar
más observaciones a la izquierda o a la derecha del valor más frecuente, es decir, la
moda (véase también la figura 7).
Algunas de las transformaciones más ampliamente utilizadas son la transformación
logarítmica o la transformación mediante raíz cuadrada.
En el caso de distribuciones cuantitativas, otra forma de transformar los datos es
mediante su reexpresión a través de medidas de tendencia central, como la
media o la mediana, lo que nos permite resumir una serie de datos a través de un
único valor.
Big Data y Analytics 21
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 7. Distribución normal y distribuciones con sesgo positivo y negativo.
L a ventaja de usar estas medidas de tendencia central es que simplifican la
realidad expresada por el conjunto de los valores, pero su desventaja es que este
único valor representativo del conjunto de los valores poco nos dice acerca de la
distribución de los valores resumidos.
Un ejemplo de este problema de representatividad es el cuarteto de Anscombe
(1973) (figura 8), en el que los cuatro conjuntos de datos mostrados presentan la
Big Data y Analytics 22
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
misma media tanto en como en , siendo e , así como la
misma recta de regresión lineal, siendo esta para los cuatro casos,
pero cuyas formas originales de los datos son notablemente diferentes entre sí.
Figura 8. Cuarteto de Anscombe. Fuente:
http://www.sjsu.edu/faculty/gerstman/StatPrimer/anscombe1973.pdf
Visualización de datos
Para realizar una correcta visualización de los datos, en primer lugar, se ha de
determinar claramente el mensaje o la información a transmitir. Suele ser útil
preguntarse ¿qué es lo que sé?, ¿qué significa?, ¿por qué es importante? Si no se
puede resumir el mensaje clave en una frase concisa, probablemente necesitemos
darle una vuelta más y repensar la cuestión.
Una vez determinado el mensaje, se debe considerar la importancia de entender a la
Big Data y Analytics 23
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
audiencia destino, sobre todo, para determinar cuáles y cuántos de los datos se
deben ilustrar. A la hora de decidir cuántos datos se presentarán, es esencial
entender que «más» no siempre es sinónimo de «mejor», salvo que tenga sentido a
la hora de apoyar el mensaje.
En numerosas ocasiones se utiliza la narrativa, entendida como una historia en la
que se presentan una serie de hechos que conducen gradualmente a la audiencia
hacia el mensaje clave. Para probar si la narrativa es efectiva, se puede valorar si al
suprimir o reordenar alguna de las ilustraciones el mensaje sigue siendo claro o se
desvirtúa de alguna forma.
Finalmente, conviene destacar que existen numerosas técnicas y consejos a la hora
de representar visualmente la información, desde el tipo de gráficas (de barras,
apiladas, de tarta, etc.) hasta el uso que se ha de llevar a cabo en relación con la
tipografía y los colores, pasando por el etiquetado de los elementos representados.
Todo esto es una mezcla de ciencia y arte por sí solo y existen numerosos libros y
artículos publicados al respecto (Quispel y Maes, 2014).
Big Data y Analytics 24
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
7.4. Definición y tipología de gráficos
Un gráfico es una representación visual de información. Esta demostración puede ser
figurativa o no figurativa. Los gráficos no figurativos muestran la información
mediante un sistema previamente establecido y generalizado. El modo de visualizar
los datos es abstracto y no guarda parecido real con lo que se representa, sin
embargo, es reconocido por una amplia mayoría de personas.
Figura 9. Ejemplo de gráfico no figurativo representando costes de producción mensuales de diferentes
fuentes de energía. Fuente: https://samples.boldbi.com/solutions/energy/energy-monitoring-dashboard
Los gráficos no figurativos son una forma fácil y sencilla de descubrir y reflejar
patrones y tendencias procedentes de una colección de datos, así como las
relaciones que se pueden establecer entre ellos.
Gráficos no figurativos
Algunos de los gráficos no figurativos más representativos son los siguientes:
Gráficos estadísticos
Los gráficos no figurativos por excelencia son los gráficos estadísticos. Estos tipos de
Big Data y Analytics 25
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
gráficos permiten mostrar grandes conjuntos de datos de manera que pueden
ser percibidos y comprendidos de manera inmediata por el lector. Entre los
principales gráficos estadísticos contamos con los siguientes:
▸ Gráficos o diagramas de barras.
▸ Histogramas.
▸ Polígonos de frecuencias.
▸ Pictogramas (aunque, en este caso, se trataría de un diagrama figurativo , como
veremos más adelante).
▸ Gráficos de líneas.
▸ Gráficos o diagramas de sectores (tartas).
▸ Diagramas de cajas y bigotes ( boxplots).
Gráficos de barras
Dentro de los gráficos estadísticos, los gráficos de barras son representaciones de
datos por medio de rectángulos paralelos cuya extensión será igual al valor
que se desea reflejar. Pueden utilizarse para:
▸ Realizar comparaciones entre valores.
▸ Mostrar cómo un valor ha ido evolucionando en el tiempo (series temporales).
▸ Mostrar la frecuencia con la que aparece un valor o rango de valores en una muestra
(histogramas).
Big Data y Analytics 26
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
▸ Si además unimos los puntos de la base superior de cada barra en un diagrama de
barras (o histograma) mediante una línea, hablaremos de un polígono de
frecuencias.
▸ Reflejar un ranking de valores de mayor a menor o viceversa.
▸ Visualizar la desviación entre dos conjuntos de valores.
▸ Representar las subdivisiones de un valor entero.
▸ Ver las relaciones entre dos conjuntos de valores.
▸ Mediante gráficos de barras apiladas se puede, además, mostrar una distribución de
diferentes componentes dentro de cada valor mostrado.
Si en lugar de barras utilizamos una figura representativa de la magnitud que se está
mostrando, hablaremos de pictogramas (ver más adelante a este respecto la figura
15).
Big Data y Analytics 27
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 10. Ejemplo de gráfico de barras apiladas representando el consumo energético en un edificio en el
tiempo. Fuente: Interempresas.
Gráficos de línea
Los gráficos de línea son representaciones de datos por medio de puntos
conectados por una línea. Cada punto corresponde al valor que se quiere mostrar.
Ofrecen las siguientes funciones:
▸ Mostrar cómo un valor ha ido evolucionando en el tiempo (series temporales).
▸ Visualizar la desviación entre dos conjuntos de valores.
▸ Representar las subdivisiones que conforman cada valor agregado.
Estos son los más adecuados para mostrar la evolución de un valor cuantitativo
a lo largo de una línea temporal (figura 11).
También son muy frecuentes los gráficos en los que se representan varias líneas con
el fin de mostrar tendencias o relaciones entre ellas a lo largo de un mismo período
de tiempo.
Big Data y Analytics 28
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 11. Gráfico de líneas representando medidas de velocidad de viento en diferentes turbinas
(aerogeneradores) de AWS IoT SiteWise Monitor (usado en aplicaciones industriales). Fuente: AWS
Documentation.
Tartas
Las tartas son un tipo de gráfico con forma circular cuyas particiones
corresponden a cada parte de un valor total que equivale al 100 %. Su función
es, habitualmente, representar las distintas subdivisiones que conforman un valor
agregado.
Big Data y Analytics 29
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 12. Ejemplo de gráficos de tarta (parte superior) y de barras (parte inferior). Fuente: Datamatic.
En ocasiones, puede ser mejor utilizar un gráfico de barras (figura 12, parte inferior)
en vez de la habitual tarta (figura 12 parte superior), por ejemplo, cuando tenemos
más de cuatro o cinco particiones. La lectura de los datos se hace más directa y se
comparan mejor mediante un gráfico de barras, como vemos en la imagen de la
figura 12 en la parte inferior. También, como en la misma figura, cuando es necesario
observar una evolución temporal o espacial (por zona) no solo en la distribución de
las subdivisiones, sino en el valor total (por ejemplo, el valor total o 100 % de cada
Big Data y Analytics 30
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
año).
Visualización de conjuntos de datos ligados temporales y espaciales
En ocasiones nos encontraremos con conjuntos de datos entre los que podemos
establecer una relación temporal o espacial. Para ello, la mejor manera de
representarlos es a través de líneas de tiempo o mediante el uso de mapas.
Líneas de tiempo
Una línea de tiempo es un modo de representar datos a lo largo de un eje
cronológico. Su principal función es identificar la conexión de un dato con un
punto temporal y, en algunos casos, revelar posibles tendencias y patrones
dentro del conjunto a lo largo del tiempo. Las líneas de tiempo se pueden orientar
horizontal o verticalmente.
Mapas de flujo
Mediante los mapas de flujo se representa el movimiento y la conexión existente
entre puntos. Esta relación se establece por medio de una línea cuyo ancho es
proporcional al valor que queremos representar.
La realización sistematizada de este tipo de mapas se le atribuye a Charles Minard
(1781-1870). Véase un ejemplo de este tipo de mapas en la figura 13.
Big Data y Analytics 31
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 13. Uso estimado de la energía en Estados Unidos en 2017. Fuente: https://www.vox.com/energy-
and-environment/2017/4/13/15268604/american-energy-one-diagram
Mapas coropléticos o mapas de coropletas
Son un modo de representar datos estadísticos acotando áreas. ¿Cómo codificar
estas regiones? Usando colores diferentes, diferentes gradaciones de un mismo
color, formas, texturas, etc. Deberán ir acompañados de una clave expresando a qué
corresponde la codificación seleccionada (véase figura 14).
Big Data y Analytics 32
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 14. Porcentaje del uso de energía renovable en Europa en 2016 por país. Fuente: Wikipedia, 2016.
Gráficos figurativos
Los gráficos figurativos muestran la información mediante recursos que guardan
parecido real con lo que representan. Estos recursos suelen ser mapas,
fotografías, ilustraciones, etc. El público a primera vista relaciona lo que se le
muestra con el objeto o proceso que se quiere explicar.
Los gráficos figurativos son muy cercanos para el lector y permiten
comprender de una manera sencilla fenómenos que pueden ser muy
complejos. Suelen ser muy atractivos y captan rápidamente la atención
del lector.
Un ejemplo muy típico de estos gráficos son las cartografías.
Otro ejemplo son los pictogramas o pictografías, una variante de los gráficos de
Big Data y Analytics 33
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
barras en las que en lugar de barras mostramos pictogramas representado de alguna
forma temática la magnitud de la que se está tratando (figura 15).
Figura 15. Ejemplo de pictograma representando producción de energía nuclear. Fuente: Conceptdraw.
Anatomía de un gráfico
Todos los gráficos comparten unos elementos que aportan pistas para ayudarnos a
comprender mejor la historia que representan. En el caso de los gráficos
estadísticos, es importante diferenciar los siguientes componentes (ver figura 16):
Big Data y Analytics 34
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 16. Anatomía básica de un gráfico estadístico. Fuente:
https://documentation.sas.com/api/docsets/graphref/9.4/content/images/partsofbarline.png?locale=en
▸ Título: al igual que sucedería en un informe, deberá ir encabezado por un titular que
sea muy directo y que llame la atención de nuestro público consumidor de la
información (gerente, usuario final, científico de datos, director de fábrica, operario)
introduciéndoles al tema en cuestión.
▸ Subtítulo: en el subtítulo debemos de incluir detalles que no vienen indicados en el
titular, pero que son importantes para comprender el contexto del gráfico, un ejemplo
es el período de referencia de los datos. No olvidar nunca indicar las unidades de
medida en que están expresado los datos en el gráfico: porcentaje, euros,
Big Data y Analytics 35
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
persona, etc.
▸ Clave o leyenda: nos explica el modo en que se ha codificado el gráfico.
▸ Eje Y (o eje de ordenadas) es el eje cuantitativo. Indica mediante una escala la
frecuencia con que se produce cada valor de la variable. Puede estar presente o no
en el gráfico o bien presentar otra forma diferente si no estamos trabajando con un
gráfico cartesiano.
▸ Eje X (o eje de abscisas) es el eje categórico. Expresa los valores de la variable. Al
igual que en el anterior eje, puede estar presente o no en el gráfico o bien presentar
otra forma diferente si no estamos trabajando con un gráfico cartesiano.
▸ Línea de referencia: aporta información que nos ayuda a contextualizar datos
mediante comparación.
▸ Fuente: en el pie se incluirá siempre el origen de los datos mostrados. En el caso de
los gráficos interactivos es interesante incluir un enlace a la fuente de información
que muestre el origen de los datos por si el consumidor de la información desea
consultar algo o ampliar la información analizando los datos más a fondo.
Si nos fijamos, la estructura básica de este tipo de gráficos es extrapolable a
cualquier visualización: cabecera, cuerpo y pie. Además, siempre nos vamos a
encontrar con los elementos básicos como el título, el subtítulo y la fuente. Más
adelante veremos cómo se estructuran estos y otros elementos tanto si estamos ante
una visualización estática como si trabajamos con proyectos dinámicos e
interactivos.
Big Data y Analytics 36
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
7.5. Visualización estática
Las visualizaciones estáticas representan información que normalmente no va a
experimentar cambios y que no requiere de interacción por parte del lector. Se
pueden realizar tanto para soportes impresos como digitales, ya que el formato de
salida generado es una imagen.
En ocasiones, un gráfico estático ofrece la información de manera más clara que si
se hiciera mediante un recurso interactivo o dinámico. Fijémonos en la figura 17. Este
tipo de diagramas son utilizados habitualmente por la firma sueca IKEA para el
montaje de sus muebles.
Big Data y Analytics 37
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 17. Explicación gráfica de un proceso de montaje. Fuente: IKEA.
La ventaja que ofrecen es que el usuario puede ir hacia delante o atrás
en cualquier paso con un simple movimiento del ojo a la vez que monta
esta estantería. Por otro lado, las representaciones estáticas obligan a
imaginar mentalmente la secuencia, por lo que el aprendizaje es más
profundo.
Big Data y Analytics 38
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Las visualizaciones estáticas son características y de obligado uso en los medios
impresos y de fácil integración en los medios digitales. En ambos casos, una vez
publicadas no van a experimentar ninguna variación en su diseño y estructura.
El resultado de una visualización estática será un archivo de imagen. Existen
múltiples formatos de salida cuyo uso dependerá del destino de publicación del
recurso, distinguiendo principalmente entre soportes impresos y soportes digitales:
▸ Soporte impreso: si trabajamos pensando en publicar nuestra visualización en un
medio impreso, podemos escoger entre varios formatos de salida que tendrán en
común una alta calidad de imagen.
▸ Herramientas como Adobe Illustrator permiten guardar los recursos creados como
imágenes vectoriales EPS o PDF o como una imagen de mapa de bits, TIFF.
Son formatos que ofrecen mucho detalle, por lo que resultan idóneos para las
publicaciones impresas.
▸ Soporte digital: por el contrario, los medios digitales no suelen requerir resoluciones
tan altas por lo que exportaremos nuestros trabajos en formatos como JPG, PNG
(mapa de bits) o SVG (vectorial).
Además de Adobe Illustrator existen otras herramientas como CorelDRAW, Inkscape,
Infogram, Picktochart, Creately o Easelly. Por supuesto, además podemos usar
cualquier herramienta de visualización dinámica y exportar una captura o un frame
para ser utilizado como un gráfico estático.
Big Data y Analytics 39
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
7.6. Visualización dinámica
Las visualizaciones dinámicas representan información que va a experimentar
cambios (imaginemos, por ejemplo, un mapa que indique la localización de recursos
que actualice en tiempo real). Este tipo de representaciones pueden ofrecer al
consumidor de la información la posibilidad de profundizar en los datos mediante
opciones de interacción.
La interactividad en la visualización permite el intercambio de
información entre la máquina y el consumidor de la información, además
requiere de cierto grado de participación de este último.
La visualización dinámica ofrece ventajas frente a la estática, ya que esta última en
ocasiones puede verse limitada por un espacio que está muy definido, sobre todo en
el caso de un medio impreso. Un gráfico interactivo puede estar compuesto de varias
pantallas dentro de la principal o incluir enlaces que nos lleven a otras páginas donde
podremos ampliar una información específica.
Un ejemplo claro de visualización dinámica la ofrece la plataforma de Google
Maps, que ofrece imágenes obtenidas mediante satélite. En la figura 18 vemos
como, tras utilizar una de las opciones de interactividad obtenemos un mapa, en este
caso hemos hecho uso del buscador introduciendo el término Logroño.
Big Data y Analytics 40
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 18. Visualización dinámica de la ciudad de Logroño (España) obtenida a través de Google Maps.
Fuente: Google Maps, 2021.
Por un lado, existen otras herramientas con las que podemos desarrollar trabajos de
animación, como son Adobe Edge Animate, Tamult Hype o Adobe Flash
Professional.
Por otro lado, existen herramientas desarrolladas especialmente para crear
interesantes visualizaciones a partir de conjuntos de datos abiertos u open data
como son Gapminder y Google Public Data Explorer.
Existe un extenso abanico de posibilidades a la hora de mostrar la información
dinámicamente. Aquellos analistas de datos con conocimientos avanzados en
programación o que están integrados en un equipo en el que también existen
desarrolladores, pueden emplear para dichas visualizaciones lenguajes HTML, CSS
y JavaScript para crear presentaciones de datos interactivas que forman parte de la
capa de presentación de datos dentro de la capa de aplicación de una
determinada solución (plataforma o sistema) para visualizar la información y el
conocimiento obtenidos.
Big Data y Analytics 41
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
En este caso, en el que se está desarrollando un front-end específico en nuestra
solución, es muy frecuente emplear, además, frameworks sobre JavaScript que
facilitan la presentación de datos de forma reactiva como Angular.js o el nuevo
Angular 2 o simplemente Angular (Google), React.js (creado por Facebook) o Vue.js
(creado por Evan You, previamente trabajador en Google en el proyecto Angular.js),
siendo los tres ejemplos distribuidos como librerías JavaScript de código abierto.
Estos frameworks permiten separar el modelo de los datos de la vista de dichos
datos y el controlador (controles de la interfaz) que manipula el modelo de los datos,
siguiendo un patrón modelo-vista-controlador (MVC) o una variante del mismo
(Vue.js utiliza, por ejemplo, un patrón modelo-vista-modelo de la vista, MVVM).
En todos dichos casos, los datos en sí mismos están completamente desacoplados
de la interfaz, siendo solo manipulados directamente por el back-end (conjunto de
servicios web, por ejemplo, que interaccionan con el repositorio de datos). Esto
permite crear diferentes front-end para interaccionar con un único back-end (por
ejemplo, diferentes aplicaciones de escritorio, Web y móvil interaccionando con una
única plataforma o sistema).
Big Data y Analytics 42
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 19. Patrón Modelo-Vista-Controlador. Fuente: Mozillademos, 2020.
Figura 20. Patrón modelo-vista-modelo de la vista usado en Vue.js. Fuente: Styde, 2016.
Asimismo, estos front-ends basados en tecnología web hacen frecuentemente uso
de otras librerías JavaScript para facilitar la creación del layout de la interfaz web
responsiva (es decir, que la interfaz se adapte y cambie su aspecto en función de si
accedemos a la misma mediante un ordenador de escritorio, una tablet o un
smartphone), como bootstrap (creada por Twitter), así como librerías para la
creación de gráficos para la presentación de datos a los usuarios, como Google
Charts, D3.js o Apache Echarts, las tres de código abierto, o Highcharts o
AmCharts, que son soluciones propietarias.
Big Data y Analytics 43
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 21. Ejemplo de matriz de diagramas de dispersión con Apache Echarts. Fuente:
https://echarts.apache.org/examples/en/editor.html?c=scatter-nutrients-matrix&theme=light
Así, Google Charts es una API de Google que permite introducir gráficos dinámicos
en tu propia web, desde sencillos gráficos de línea hasta complejos mapas de árbol.
Está dirigida a desarrolladores web y se basa en el lenguaje de programación
JavaScript.
Para crear un gráfico con Google Chart es importante cargar tres librerías: Google
JSAPI API, Google Visualization y la galería específica del gráfico seleccionado. A la
hora de preparar los datos, se deberá consultar la documentación de la API puesto
que, dependiendo del gráfico seleccionado, vamos a necesitar darles un formato u
otro. Cada tipo de visualización ofrece opciones de personalización como incluir un
título, añadir colores, ajustar el grosor de la línea, especificar el tamaño, etc.
Big Data y Analytics 44
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 22. Ejemplo de gráfico de barras con Google Charts. Fuente: Google Charts, 2021.
Por su parte, D3.js es una librería JavaScript de código abierto muy potente capaz
de cargar datos en una web y generar visualizaciones a partir de ellos.
D3 (data driven documents) se apoya en el uso del lenguaje de etiquetas HTML5, el
formato SVG ( scalable vector graphics) y el lenguaje CSS (hoja de estilo en cascada
que define la apariencia y el formato del documento). Al basarse en estos estándares
web, se adapta a la perfección a todo tipo de navegadores. En el proceso de
creación de D3 destaca, sobre todo, la figura del editor gráfico del New York Times,
Mike Bostock. La herramienta es de código abierto y se encuentra disponible de
manera gratuita en el repositorio GitHub.
Big Data y Analytics 45
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 23. Diagrama de Sankey construido mediante D3.js mostrando flujos de generación y demanda de
energía. Fuente: https://observablehq.com/@d3/sankey-diagram
Sin embargo, y como veremos más adelante, cuando no se requiere desarrollar una
capa de aplicación personalizada es habitual utilizar herramientas ya existentes
como Tableau, Grafana o Google Data Studio para presentar datos provenientes de
fuentes almacenadas en data warehouses (u otras fuentes) sin necesidad de
conocimientos de lenguajes de programación.
Big Data y Analytics 46
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
7.7. Herramientas de visualización
El aumento considerable del volumen de datos disponibles en la última década ha
propiciado la proliferación de herramientas estándar para la visualización de estos.
Mostrar los datos adecuadamente y hacerlos comprensibles a los consumidores de
la información es una labor actualmente al alcance de cualquier usuario que requiera
proporcionar dichas visualizaciones de forma eficiente y eficaz, sin necesidad de ser
un desarrollador, ingeniero de datos o analista de datos experto.
A lo largo de esta sección listaremos algunas de las herramientas más utilizadas en
la industria para la visualización de datos provenientes de diferentes fuentes,
habiendo sido algunas de ellas ya mencionadas a lo largo del tema.
Algunas herramientas sencillas para la visualización de datos
Datawrapper
Datawrapper un programa de código abierto para la creación de visualizaciones
de manera gratuita. La herramienta permite el acceso a opciones adicionales y
características mejoradas a través de diversos planes de pago y también cargar los
datos y generar gráficos de manera muy sencilla. Basta con crear un perfil con una
dirección de correo electrónico o a través de una cuenta de Twitter.
Timeline JS
Timeline JS es una herramienta de código abierto que permite construir líneas de
tiempo interactivas a partir de una hoja de cálculo. Podemos enriquecerlas
incluyendo material multimedia procedente de fuentes como Twitter, Flickr, Google
Maps, YouTube, Vimeo, etc. Una de las ventajas que ofrecen las cronologías
creadas con Timeline JS es que son responsive, con lo que adaptan su diseño al
dispositivo desde el cual se van a visualizar: escritorio, tableta o móvil.
Big Data y Analytics 47
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
RAWGraphs
RAWGraphs es una herramienta de código abierto centrada en la creación de
visualizaciones con D3.js de manera sencilla sin necesidad de tener conocimientos
de programación. Podemos descargar las visualizaciones en formato vectorial (SVG)
o como imágenes, así como obtener el código HTML para incrustarlas en nuestro
sitio web.
CartoDB
CartoDB es una aplicación en la nube que permite almacenar y visualizar datos
en la web a través de la realización de mapas interactivos. Se ofrece bajo la
modalidad de negocio freemium (el usuario parte de unos servicios básicos gratuitos
y tiene acceso a opciones más avanzadas mediante una serie de planes de pago).
Figura 24. Ejemplo de mapa realizado con CartoDB en aplicaciones de logística. Fuente:
https://go.carto.com/webinars/location-intelligence-logistics
Soluciones de presentación de datos e inteligencia empresarial
En la mayoría de las ocasiones, y enlazando con lo visto en anteriores temas,
contaremos ya con capas de ingestión (IIoT, fuentes externas abiertas, bases de
Big Data y Analytics 48
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
datos de la empresa, sistemas existentes en la empresa como ERP, MES, etc.),
almacenamiento (data warehouses, bases de datos NoSQL, etc.) y procesamiento de
datos (herramientas big data como Apache Spark, etc.), siendo nuestra intención
presentar informes y cuadros de mandos acerca de la información obtenida por la
fusión de datos y el conocimiento inferido a partir de modelos machine learning sin
necesidad de desarrollar capas de aplicación personalizadas.
Para ello, existe una gran variedad de soluciones de inteligencia empresarial o
business intelligence orientadas a la creación de dashboards de forma sencilla
eligiendo las fuentes de datos a representar, así como los tipos de gráficos más
apropiados, disponiendo los mismos en dashboards personalizados.
Asimismo, los principales proveedores cloud, como AWS, Microsoft Azure y Google
Cloud Platform, facilitan la integración de sus fuentes de datos y capas de
procesamiento de datos para la presentación de estas con este tipo de herramientas
y viceversa, es decir, dichas herramientas se han desarrollado pensando en la
presentación de datos almacenados en repositorios en la nube ofrecidos por los
distintos proveedores cloud y que ya vimos anteriormente en este Tema.
Es muy importante mencionar que los proveedores cloud no restringen las
herramientas en función de que proporcionen otras herramientas competidoras
en parte similares. Es decir, como ejemplos, es perfectamente posible utilizar Power
BI para mostrar datos existentes en repositorios BigQuery en Google, así como
utilizar Google Data Studio para mostrar información existente en AWS Redshift.
Tableau
Tableau Software es una empresa que proporciona soluciones de software de
presentación de datos e inteligencia empresarial basada en investigaciones
originadas en la Universidad de Standford. Ofrece diferentes versiones de su
software con distintos niveles de funcionalidades y precios. Permite conectarse con
diferentes fuentes de datos como Amazon Redshift, Google BigQuery o bases de
Big Data y Analytics 49
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
datos locales, entre otras, para crear cuadros de mando muy atractivos a la hora de
presentar información.
Tableau Public es una avanzada e intuitiva aplicación gratuita de creación y
publicación de gráficos interactivos, mapas, tablas, etc. Permite crear tableros que
incluyan varias representaciones gráficas de los datos dentro de la misma
visualización.
Figura 25. Ejemplo de dashboard en Tableau Public mostrando la calidad del agua de baño en Gran
Bretaña. Fuente: Tableau Public, 2016.
Sin embargo, Tableau ofrece versiones premium no gratuitas con una mayor
capacidad de almacenamiento de nuestros datos y más opciones para conectar
fuentes de datos. Tableau Desktop es la versión de escritorio que permite crear
cuadros de mando sin más que arrastrar diferentes fuentes de datos para su análisis.
Tableau Online permite realizar análisis de inteligencia empresarial en la nube
conectándose al mismo a través de un navegador web, mientras que Tableau
Server, aunque también se encuentra en la nube, permite a los miembros de las
organizaciones empresariales colaborar entre sí de forma más segura, ya que sigue
una política diferente a la hora de usar recursos en el cloud.
Big Data y Analytics 50
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Google Data Studio
Google Data Studio es una herramienta de Google para la creación de
dashboards completamente gratuita y que permite conectar numerosas fuentes de
datos con una amplia variedad de gráficos. Una de las principales ventajas de
Google Data Studio, además de su gratuidad, es que cuenta con un marketplaces
para utilizar conectores desarrollados por terceros. Esto incluye (noviembre de 2020)
más de 800 fuentes de datos sobre más de 320 conectores posibles, incluyendo los
propios de Google (BigQuery, Cloud Spanner, Google Analytics, Youtube Analytics,
etc.), así como conectores de terceros (algunos con coste) que permiten conectarse
a otras fuentes de datos y bases de datos en otros Cloud (AWS, Azure, etc.).
Figura 26. Ejemplo de dashboard creado con Google Data Studio. Fuente:
https://datastudio.google.com/u/0/reporting/1rBC8woDruwE-f_gsheY7kwlx0BPtgzEn/page/c2P1
Power BI
Al igual que otras herramientas de inteligencia empresarial, Power BI (de business
intelligence) es una solución de pago desarrollada por Microsoft y cuyo objetivo
inicial era proporcionar visualizaciones de inteligencia empresarial orientadas a
marketing, ventas o datos financieros. Power BI permite extraer datos de
fuentes como Excel, Google Analytics, Salesforce o redes sociales (LinkedIn,
Big Data y Analytics 51
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Twitter, Facebook, etc.).
Una de las ventajas más importantes de Power BI es que permite a los usuarios
interactuar mediante reconocimiento por comandos de voz usando técnicas de
procesamiento de lenguaje natural, lo cual la hace muy atractiva por parte de los
usuarios para obtener información y conocimiento adquiridos a partir de los datos.
Al igual que en el caso de Tableau, existen diferentes versiones de la herramienta en
función de las necesidades de los usuarios: Power BI Desktop, Power BI Pro, Power
BI Premium, Power BI Mobile (versiones de aplicaciones nativas para Windows
Mobile, Android, así como iOS) y Power BI Embedded (para ser integrado en
aplicaciones propias desarrolladas).
Figura 27. Cuadros de mando creados por Power BI Desktop. Fuente: Microsoft. Power BI, 2021.
Con el paso del tiempo, e influenciada por la plataforma Azure y, especialmente, los
componentes de Azure IoT, Power BI permite ingerir datos provenientes de fuentes
IoT, lo cual la hace muy interesante para visualizaciones de datos de mediciones de
sensores IoT, ya sea IoT industrial, Smart meters o IoT de consumo.
Grafana
Big Data y Analytics 52
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Grafana es una herramienta open source y gratuita que nació inicialmente para la
visualización de estadísticas de uso de la CPU en ordenadores y servidores.
Existen versiones para Linux, Windows, Mac, Docker (sistema de contenedores que
permite ir un paso más allá en la virtualización de nuestro equipo, sin necesidad de
instalar una copia completa del sistema operativo en cada contenedor en
funcionamiento y fácilmente orquestables en la nube mediante tecnología
Kubernetes de Google) e incluso ARM.
Figura 28. Ejemplo de arquitectura de ingestión, almacenamiento, procesamiento y visualización de datos
IIoT en la cual se involucra a Grafana. Propuesta por la empresa AMMP Technologies. Fuente: Grafana
Labs, 2019.
Big Data y Analytics 53
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 29. Ejemplo de uso de Grafana para mostrar datos IoT, creado por Dan Cech para el IoT Workshop
GrafanaCon 2019. Fuente: Grafana Labs, 2019.
En la actualidad, gracias a su marketplace de plugins, Grafana es una herramienta
que permite ingerir y mostrar datos de una gran variedad de fuentes como MySQL,
InfluxDB (series temporales), Prometheus (eventos en tiempo real), Google
BigQuery, AWS IoT SiteWise (servicio gestionado de AWS para tratar con datos de
equipos industriales), etc., así como incorporar nuevos elementos de visualización a
los dashboards que creamos.
Big Data y Analytics 54
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 30. Dashboard en Grafana leyendo datos de Prometheus. Fuente:
https://prometheus.io/docs/visualization/grafana/
Looker
Looker Data Sciences fue fundada en 2012. En 2019 fue adquirida por Google y
ahora Looker forma parte del ecosistema de componentes de Google Cloud Platform.
Looker es una herramienta de pago muy completa de inteligencia empresarial que
permite ingerir datos de múltiples fuentes, aplicar modelos de aprendizaje
automático y visualizar dicha información de forma profesional.
Big Data y Analytics 55
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 31. Ejemplo de uso de Looker con Stitch (para ingerir fuentes de datos en un data warehouse).
Fuente: Looker blog, 2021.
Figura 32. Uso de BigQuery Machine Learning (BQML) sobre Looker. Fuente: Looker blog, 2021.
Uno de los aspectos más interesantes de Looker es su sistema de bloques looker
blocks con licencia MIT que permite reutilizar piezas de código de terceros a partir de
un amplio directorio estructurado en diferentes clases: Analytics, Source (data
sources), Data Blocks, Data Tools, Viz Blocks (visualizaciones) y Embedded Blocks
(para incluirlos en nuestros portales web, por ejemplo, así como entornos de realidad
virtual, entre otras posibilidades).
Big Data y Analytics 56
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Qlik
Qlik nació en Suecia en 1993 (originalmente como Qliktech) y actualmente tiene su
sede en Estados Unidos. Qlik ofrece soluciones de pago orientadas a la
inteligencia empresarial y visualización de datos con una gran variedad de
posibles componentes y siendo destacable módulos específicos para datos IoT,
especialmente interesante en la industria 4.0.
Mientras que sus productos Qlik View están pensados para la visualización y el
análisis de datos basado en su motor asociativo, Qlik Sense se presenta como la
evolución de los productos de Qlik con un motor mejorado según información
promocional de la propia empresa.
Ofrecen diferentes esquemas de precios basados en diferentes niveles de
funcionalidad, tanto como un SaaS en la nube gestionada directamente por Qlink
como on premise.
Figura 33. Ejemplo de visualización de datos IoT usando Qlik. Fuente: Qlik blog, 2017.
Adverity
Adverity es una solución propietaria de pago que permite ingerir fuentes de datos
Big Data y Analytics 57
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
mediante más de 400 conectores diferentes (Amazon Redshift, MongoDB, Twitter,
Slack, BigQuery, Google Analytics, Shoppify, etc.), procesarlos, mostrarlos mediante
dashboards propios y aplicar modelos inteligentes para la creación de campañas.
Figura 34. Plataforma Adverity para la ingestión, procesamiento y presentación de datos. Fuente: Adverity.
Figura 35. Ejemplo de dashboard creado con Adverity. Fuente: Adverity, 2021.
Asimismo, Adverity permite volcar los datos finalmente a data warehouses o colas de
procesamiento en la nube (AWS, Azure, Google Cloud, Hadoop, MySQL) u otras
herramientas de visualización de terceros (Tableau, Google Data Studio, etc.).
Big Data y Analytics 58
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Funnel
Funnel es otra alternativa a Adverity y sigue una filosofía similar. Una plataforma de
pago que permite ingerir datos de más de 500 fuentes de entrada diferentes y
conectarlas a su salida a múltiples destinos, incluyendo una API propia (para su
conexión con herramientas desarrolladas por terceros), AWS S3/Redshift, Google
BigQuery/Cloud Storage, Azure, etc.
Figura 36. Imagen promocional de Funnel y su concepto como plataforma de tratamiento de datos.
Fuente: Funnel, 2021.
Lenguajes de programación para la presentación de datos personalizadas en
el ámbito de la ciencia de datos
Finalmente, y como ya se ha comentado, existe la posibilidad de desarrollar una
capa de presentación de datos personalizada dentro de nuestra capa de
aplicación. Tal y como se describió anteriormente, cuando se trata de interfaces
Web, usaremos HTML, CSS y JavaScript, además de frameworks reactivos como
Angular, React.js o Vue.js en combinación con librerías para la construcción de
gráficos como Google Charts o D3.js, entre otras posibilidades.
En el caso de que queramos personalizar nuestras presentaciones de datos
haciendo uso de lenguajes de programación desde un punto de vista más enfocado a
l a ciencia de datos o la aplicación de técnicas de inteligencia artificial los dos
lenguajes más empleados son Python y R.
El lenguaje Python y las librerías matplotlib y seaborn
Big Data y Analytics 59
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Python, ya introducido previamente en el temario de la asignatura, es un lenguaje de
programación creado por Guido van Rossum y lanzado en 1991 (y sí, el nombre
viene del célebre grupo humorístico británico Monty Python). Es el lenguaje más
empleado en el ámbito de la inteligencia artificial y el machine learning (Bansal,
2019), además de ser utilizado también para el desarrollo de aplicaciones web del
lado del servidor, el desarrollo de software en general, aplicaciones matemáticas o
scripting en la gestión de sistemas operativos.
Figura 37. Ofertas de empleo en machine learning y ciencia de datos en el portal Indeed según lenguaje
de programación. Fuente: Puget, J.F., 2016.
Una de las ventajas de Python es que cuenta con numerosas librerías desarrolladas
por la comunidad y que pueden ser utilizadas en función de las necesidades de
nuestros proyectos. En el caso de la aplicación de técnicas de inteligencia artificial,
ya hemos comentado con anterioridad librerías como Scikit-learn (para trabajar con
aprendizaje automático clásico) y TensorFlow y Keras (para trabajar con redes
neuronales y deep learning). Para implementar nuestros propios gráficos para la
presentación de datos, las librerías más extendidas son Matplotlib y Seaborn, que
Big Data y Analytics 60
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
en realidad trabaja sobre la primera.
Figura 38. Ejemplo de diagramas de líneas mostrando series temporales con Matplotlib. Fuente: Matplotlib,
2021.
Matplotlib es una biblioteca de Python muy popular para la visualización de datos.
Es particularmente útil cuando un programador quiere visualizar los patrones de los
datos. Es una librería de ploteo en 2D usada para crear gráficos y diagramas en 2D.
Un módulo llamado pyplot facilita a los programadores el trazado, ya que proporciona
características para controlar los estilos de línea, las propiedades de las fuentes, los
ejes de formato, etc. Proporciona varios tipos de gráficos y diagramas para la
visualización de datos, es decir, histogramas, tablas de error, chats de barras, etc.
Por su parte, Seaborn está construida sobre Matplotlib para hacer más sencilla la
tarea de dotar a los gráficos de una mayor calidad y detalle si es necesario un
acabado más atractivo.
Big Data y Analytics 61
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 39. Ejemplo de matriz de diagramas de dispersión utilizando Seaborn. Fuente: Seaborn, 2021.
El lenguaje de programación R
R es un dialecto del lenguaje S, desarrollado por John Chambers en Bell Labs,
iniciando su desarrollo en 1976, mediante bibliotecas Fortran como un entorno
interno para análisis estadístico. R es un lenguaje popular de modelado
estadístico que es utilizado por los científicos de estadísticas y datos.
Proporciona apoyo a un paquete estadístico diverso que se utiliza más ampliamente
para el análisis y la modelización de datos. Ross Ihaka y Robert Gentleman juntos
desarrollaron R en 1995 en la Universidad de Auckland. Para varios roles de análisis
de datos y computación estadística, R es una elección popular.
Según Bansal (2019), R se encuentra también en tercera posición como lenguaje
Big Data y Analytics 62
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
más empleado para la aplicación de técnicas de machine learning, tras Python y
Java. Según dichas fuentes, R es un lenguaje basado en gráficos que se utiliza para
la computación estadística, el análisis y las visualizaciones en el aprendizaje
de las máquinas. Para aquellos que quieren explorar datos estadísticos a través de
gráficos, es la plataforma perfecta. También es usado para una variedad de
propósitos por científicos de datos en Facebook, Google, y muchas otras grandes
compañías.
Si bien su curva de aprendizaje es más lenta que en otros lenguajes como Python y
no está concebido como un lenguaje de propósito general que permita implementar
back-end o trabajar con dispositivos IoT de consumo (por ejemplo, Raspberry Pi,
etc.), esta herramienta es de gran interés para el análisis estadístico, siendo una de
las más potentes en este campo y una de las más extendidas en el ámbito
académico y de la investigación.
Big Data y Analytics 63
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 40. Ejemplo de múltiples gráficos en una única figura utilizando R y ggplot2. Fuente: R Graph
Gallery, 2018.
Existen más de 10 000 paquetes en el repositorio de la distribución de la biblioteca
CRAN de R. Estos paquetes están hechos a medida para una variedad de
aplicaciones estadísticas. Mientras que R puede ser un lenguaje estadístico de
núcleo duro, proporciona un soporte extensible para varios campos, que van desde
la salud a la astronomía y la genómica.
R es popular por su amplio soporte de visualización. En el caso de la presentación de
datos, uno de los paquetes más extendidos es ggplot2. Este paquete proporciona
una amplia gama de capacidades gráficas que hacen que los datos sean interactivos
para los usuarios. Con la ayuda de ggplot2, los usuarios pueden aprovechar las
extensiones para aumentar la usabilidad y la experiencia personal.
En el vídeo Visualización de datos con Google Data Studio, podéis ver un
ejemplo sobre lo explicado en esta sección.
Además, podéis consultar también Visualización de datos con Tableau.
Big Data y Analytics 64
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
7.8. Visualización en escenarios IoT
En el ámbito de los escenarios IoT, y en concreto dentro del campo del big data que
nos atañe en esta asignatura, la visualización de datos es uno de los aspectos más
importantes a tener en cuenta para representar la información de forma que sea más
fácil de entender e interpretar y, en consecuencia, que resulte más rápido y eficiente
extraer conclusiones útiles a partir de ella. Así, existen múltiples casos de uso en los
que podemos aplicar las técnicas vistas a lo largo de este tema.
Mapas y realidad virtual aplicados en sistemas de localización en interiores
Un primer caso relevante es la representación de información a través de mapas,
mapas de calor o incluso realidad virtual. Tal y como podemos ver en la figura 41, la
empresa Ubisense utiliza varias de estas representaciones para su sistema de
localización en interiores basado en tecnología UWB y utilizada en diversas
aplicaciones industriales, como la localización de trabajadores, activos o maquinaria
dentro de fábricas.
Figura 41. Solución de localización en interiores para asegurar la distancia de seguridad entre trabajadores
en fábricas para evitar contagios por Covid-19. Fuente: Ubisense, 2020.
Big Data y Analytics 65
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
En este caso podemos ver tanto entornos de realidad virtual como mapas de
calor, en los que se refleja el movimiento de trabajadores dentro de una nave
industrial. Este caso de uso en concreto de localización de trabajadores está
enmarcado dentro de la situación de pandemia por Covid-19 sufrida en el año 2020,
en el cual el objetivo es asegurar las distancias de seguridad entre trabajadores para
evitar potenciales contagios.
Más allá de la COVID-19, en general, gracias a la localización de personas,
mercancías vehículos (eléctricos) y sensores, se optimizan los procesos de entrega,
se mejora la gestión de los recursos y se reduce el tiempo de toma de decisiones.
Además, la representación de los mapas permite reconocer la ubicación de los
vehículos y sus cargas, permitiendo incluso la mejora de uso de los recursos
energéticos.
Figura 42. Muestra de información de ocupación estadística (mapas de calor) en la solución para asegurar
la distancia de seguridad entre trabajadores en fábricas para evitar contagios por Covid-19. Fuente:
Ubisense, 2020.
Mapas, mapas de calor y cuadros de mando en escenarios de smart cities y
territorios inteligentes
Big Data y Analytics 66
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
El uso de mapas, sistemas de información geográfica (GIS) y diversos cuadros de
mando (mapas de calor, gráficos de series temporales, etc.) son utilizados
frecuentemente en escenarios de ciudades inteligentes (smart cities) o territorios
inteligentes (smart territories). Como ejemplo, la plataforma Deep Intelligence
(Corchado et al., 2021) es una plataforma ciberfísica desarrollada para la gestión de
territorios inteligentes.
La plataforma facilita la implementación de métodos de adquisición y gestión de
datos, así como la representación de estos y la configuración de cuadros de mando.
Deep Intelligence permite el uso de cualquier tipo de fuente de datos, desde las
mediciones de un dispositivo de detección IoT multifuncional hasta bases de datos
relacionales y no relacionales. También es inteligente porque proporciona una capa
de inteligencia artificial para el análisis de datos; incluye técnicas de clasificación de
datos, clustering, previsión, optimización, visualización, etc.
Big Data y Analytics 67
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 43. Cuadros de mando para el análisis de datos y la muestra de predicciones incluyendo mapas de
calor en entornos smart cities y smart territories usando la plataforma Deep Intelligence. Fuente: Corchado
et al. (2021).
Además, es compatible con el concepto de edge computing, que permite la
distribución de inteligencia y el uso de sensores inteligentes. La plataforma optimiza
las decisiones tomadas por los expertos humanos a través de modelos de
inteligencia artificial explicables que obtienen datos de sensores IoT, bases de datos,
Internet, etc. La inteligencia global de la plataforma puede coordinar sus procesos de
toma de decisiones con nodos inteligentes instalados en el borde.
Big Data y Analytics 68
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Soluciones business intelligence para la elaboración de cuadros de mando
Por otro lado, la visualización de datos es especialmente importante en las
soluciones de business intelligence, de forma más concreta en la elaboración de
cuadros de mando (véase la figura 44), la cual presenta un cuadro de mandos
elaborado por la empresa CMI Gestión. En ella podemos ver la importancia que
adquiere la elección del tipo de gráficos que queramos representar dependiendo de
la información subyacente.
Figura 44. Cuadro de mando CMI Gestión. CMI Gestión, 2020.
Visualización de series temporales de consumos energéticos en entornos
industriales
Las gráficas y series temporales son otra de las visualizaciones especialmente útiles
en entornos de big data aplicados en el ámbito de la industria 4.0. La figura 45
representa una de las múltiples visualizaciones que la solución SimbleSense, de la
Big Data y Analytics 69
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
empresa Simble, ofrece a diferentes sectores de la industria para gestionar y analizar
el uso de la energía.
Figura 45. Benchmarking de consumo energético para una fábrica utilizando la herramienta SimbleSense
de Simble. Fuente: Simble, 2021.
En este caso podemos ver una representación del consumo diario para un período
de 30 días y un límite fijado para analizar qué días se obtienen picos de consumo.
De esta forma, el equipo gestor de la empresa en cuestión podrá analizar más en
profundidad el consumo energético durante los días de interés y tomar decisiones
para optimizarlo.
Infografías industriales elaboradas por Siemens
Ahondando en otro tipo de visualizaciones, las infografías también adquieren un
papel muy importante a la hora de explicar o exponer procesos complejos. Este tipo
de visualizaciones resume la información, plantea conclusiones, permite reflejar
flujos de datos e información y, entre otras cosas, permite identificar fases de
procesos concretos. La figura 46 representa un ejemplo de estas aplicaciones
Big Data y Analytics 70
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
desarrollado por Siemens.
Figura 46. Proceso de digitalización hacia entornos de Industria 4.0 definido por Siemens (2018). Fuente:
Siemens, 2018.
Cuadros de mando con información heterogénea por medio de Tableau
Finalmente, la combinación de múltiples tipos de información se convierte en una
herramienta muy potente a la hora de diseñar dashboards. Tal y como se ha visto a
lo largo del tema, en los últimos años han aparecido múltiples herramientas que
facilitan esta labor. La figura 47 muestra un claro ejemplo de estas combinaciones
realizado a través de la herramienta Tableau. En este caso se ha desarrollado un
cuadro de mando para una compañía aérea utilizando diferentes tipos de gráficos y
tablas.
Big Data y Analytics 71
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 47. Ejemplo de uso de múltiples tipos de visualización que ofrece la herramienta Tableau. Fuente:
https://www.slideshare.net/dghodke/tableau-airline-solutions
Los ejemplos planteados en esta sección son solamente un pequeño abanico de
todo lo que la visualización puede ofrecer a los diferentes sectores en los que se
involucran tecnologías IoT. Podemos afirmar que este es un campo en plena
expansión y evolución tanto a nivel representativo como a nivel técnico. Es
importante interiorizar que las grandes cantidades de datos requieren procesos de
síntesis, análisis y extracción de conclusiones cuyos resultados, en un gran número
de casos, se ven facilitados por la presentación de estos mediante visualizaciones
apropiadas.
Big Data y Analytics 72
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
7.9. Referencias bibliográficas
Alcalde, I. (2016). Visualización de la información: de los datos al conocimiento.
UOC.
Anscombe, F. J. (1973). Graphs in Statistical Analysis. The American Statistician,
27(1), 17-21. http://www.sjsu.edu/faculty/gerstman/StatPrimer/anscombe1973.pdf
Bansal, H. (2019). Best Languages For Machine Learning in 2020! Medium.
https://becominghuman.ai/best-languages-for-machine-learning-in-2020-
6034732dd242
Chiasson, T., Gregory, D. et al. (2014). DATA + DESIGN A simple introduction to
preparing and visualizing information. Donald W. Reynolds Journalism Institute and
Infoactive.
Corchado, J. M., Chamoso, P., Hernández, G., Gutierrez, A. S. R., Camacho, A. R.,
González-Briones, et al. (2021). Deepint. net: A rapid deployment platform for smart
territories. Sensors, 21(1), 236.
Meirelles, I. (2013). Design for Information. Rockport Publishers.
Quispel, A. y Maes, A. (2014). Would you prefer pie or cupcakes? Preferences for
data visualization designs of professionals and laypeople in graphic design. Journal of
Visual Languages & Computing, 25(2), 107-116.
Siemens. (2018). Benefit from the advantages of the digital transformation.
https://www.siemens.com/global/en/home/company/topic-areas/future-of-
manufacturing/digital-enterprise.html
Ware, C. (2013). Information Visualization. Morgan Kaufmann Publishers.
Big Data y Analytics 73
Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo
Diseño de la información y visualización de datos
Villena, M. (2014). Diseño de la información y visualización de datos, necesidades
metodológicas para el diseño gráfico actual. Casiopea.
https://wiki.ead.pucv.cl/Dise%C3%B1o_de_la_informaci%C3%B3n_y_Visualizaci%C
3%B3n_de_datos,_necesidades_metodol%C3%B3gicas_para_el_Dise%C3%B1o_G
r%C3%A1fico_actual.
Ensayo bien sintetizado de Mauro Villena sobre las necesidades metodológicas
relativas al diseño de la información y la visualización de datos para el diseño gráfico
actual, donde se expresa claramente la diferencia entre los conceptos de diseño de
la información y la visualización de datos.
Big Data y Analytics 74
Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo
The Data Visualisation Catalogue
The Data Visualisation Catalogue. [Página web]. http://www.datavizcatalogue.com/
Esta herramienta te ayudará a elegir el mejor modo de representación para tus datos.
Explica detalladamente cada tipo de gráfico y una descripción de su anatomía.
Big Data y Analytics 75
Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo
Herramientas de procesado y visualización de
datos
Gobierno de España. (24 de marzo de 2021) Herramientas de procesado y
visualización de datos. http://datos.gob.es/es/documentacion/herramientas-de-
procesado-y-visualizacionde-datos
Datos.gob (el portal de datos abiertos del Gobierno de España) presenta una
interesante recopilación de las herramientas de procesado y visualización de datos
que podemos encontrar gratuitamente en la actualidad. Puedes descargar el
documento en diferentes formatos.
Big Data y Analytics 76
Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo
Hans Rosling: The best stats you've ever seen
Rosling, H. (2006). The best stats you've ever seen. [Vídeo]. TED.
http://www.ted.com/talks/hans_rosling_shows_the_best_stats_you_ve_ever_seen/tra
nscript?language=en#t-1173537
Hans Rosling, fundador de Gapminder, realiza una magnífica presentación de datos
estadísticos relacionando, a través de visualizaciones dinámicas, la tasa de fertilidad
y la expectativa de vida al nacer, por ejemplo, para desmontar algunas ideas
preconcebidas sobre el mundo occidental y el tercer mundo.
Big Data y Analytics 77
Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo
The beauty of data visualization
McCandless, D. (2010). The beauty of data visualization [Vídeo]. TED.
https://www.ted.com/talks/david_mccandless_the_beauty_of_data_visualization#t-
%20314777
El periodista de datos David McCandless realiza una excelente exposición acerca de
la importancia de la visualización de datos. Presenta algunos conjuntos de datos
complejos por medio de visualizaciones que descubren interesantes patrones y
tendencias.
Big Data y Analytics 78
Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test
1. La infografía y la visualización de datos tienen como objetivo principal:
A. Presentar la información de una manera muy atractiva.
B. Informar y ampliar el conocimiento.
C. Mostrar una información diferente al lector.
D. Buscar y organizar datos.
2. Infografía y visualización de datos:
A. Son dos conceptos totalmente antagónicos.
B. Son dos conceptos con una naturaleza común y que comparten un mismo
objetivo.
C. Son dos conceptos totalmente independientes, aunque comparten un
mismo objetivo.
D. Ninguna es correcta.
3. El proceso básico para crear una visualización consiste en:
A. Investigar, seleccionar los datos, idear un boceto y elaborar la
visualización.
B. Investigar, seleccionar los datos y publicarlos.
C. Investigar, seleccionar los datos de varias fuentes y elaborar la
visualización.
D. Idear un boceto, seleccionar los datos y elaborar la visualización.
4. La información:
A. Es el verdadero poder en sí misma y en términos absolutos.
B. Permite extraer de ella, mediante distintas técnicas, conocimiento, que es
realmente lo valioso.
C. Solo tiene sentido si se puede representar en 3D.
D. Todas las anteriores son correctas.
Big Data y Analytics 79
Tema 7. Test
© Universidad Internacional de La Rioja (UNIR)
Test
5. Para comunicar adecuadamente de forma gráfica nuestra visión sobre un
conjunto de datos, estos se han de mostrar siguiendo:
A. Criterios estratégicos.
B. Criterios económicos.
C. Criterios psicosociales.
D. Todas las anteriores son correctas.
6. Cuando los datos son representados de manera abstracta y sin parecido real con
lo que se representa, hablamos de:
A. Gráficos bonitos.
B. Gráficos no figurativos.
C. Gráficos figurativos.
D. A y B son correctas.
7. El gráfico estadístico más adecuado para realizar comparaciones entre valores
es:
A. El gráfico de barras.
B. El gráfico de línea.
C. El gráfico de tarta.
D. Cualquiera de los tres.
8. Si lo que queremos mostrar es cómo ha evolucionado un valor a lo largo del
tiempo, utilizaremos mejor:
A. Un gráfico de barras.
B. Un gráfico de línea.
C. Un gráfico de tarta.
D. Cualquiera de los tres.
Big Data y Analytics 80
Tema 7. Test
© Universidad Internacional de La Rioja (UNIR)
Test
9. La visualización estática:
A. Representa normalmente información variable y que no requiere de
interacción por parte del lector.
B. Representa normalmente información variable y que requiere de
interacción por parte del lector.
C. Representa normalmente información invariable y que no requiere de
interacción por parte del lector.
D. Representa normalmente información invariable y que requiere de
interacción por parte del lector.
10. La visualización dinámica:
A. Representa normalmente información variable y que no requiere de
interacción por parte del lector.
B. Representa normalmente información variable y que puede requerir
interacción por parte del lector.
C. Representa normalmente información invariable y que no requiere de
interacción por parte del lector.
D. Representa normalmente información invariable y que puede requerir
interacción por parte del lector.
Big Data y Analytics 81
Tema 7. Test
© Universidad Internacional de La Rioja (UNIR)