0% encontró este documento útil (0 votos)
30 vistas81 páginas

Tema 7 BDA

Cargado por

Andres Sanchez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
30 vistas81 páginas

Tema 7 BDA

Cargado por

Andres Sanchez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Tema 7

Big Data y Analytics

Tema 7. Visualización
Índice
Esquema

Ideas clave

7.1. Introducción y objetivos

7.2. Introducción a la visualización de datos

7.3. Trabajar con datos

7.4. Definición y tipología de gráficos

7.5. Visualización estática

7.6. Visualización dinámica

7.7. Herramientas de visualización

7.8. Visualización en escenarios IoT

7.9. Referencias bibliográficas

A fondo

Diseño de la información y visualización de datos

The Data Visualisation Catalogue

Herramientas de procesado y visualización de datos

Hans Rosling: The best stats you've ever seen

The beauty of data visualization

Test
Esquema

Big Data y Analytics 3


Tema 7. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.1. Introducción y objetivos

Una de las herramientas más potentes para el análisis de datos es, sin duda, su

visualización. En este sentido, dentro de las capas de consumo de datos en una

arquitectura big data la presentación de datos, información y conocimiento juega un

papel fundamental.

La representación de grandes cantidades de información de forma gráfica facilita en

gran medida su comprensión y asimilación. Sin embargo, el proceso de creación de

infografías, gráficas u otras visualizaciones no es trivial y requiere un amplio

conocimiento del ámbito para poder realizarlo de forma eficiente y eficaz.

Este tema nos introduce en los términos infografía y visualización de datos.

Además de hacer hincapié en la importancia que cobra esta disciplina en el mundo

de los escenarios IoT, aprenderemos los pasos a seguir a la hora de elaborar una

visualización, desde que se concibe la idea inicial hasta que su representación final

llega al público.

Para ello, se estudian conceptos básicos relacionados con el trabajo con datos y se

explican las distintas etapas de este proceso que deben seguirse. Por otro lado, se

describen los tipos de gráficos más relevantes que podemos encontrar,

distinguiendo entre gráficos figurativos y los que no lo son.

Además, se introducen los conceptos de visualización estática, dinámica e

interactiva, presentando las herramientas más relevantes para la elaboración de

visualizaciones de datos, tanto de código abierto como con licencias propietarias.

Así pues, en este tema los objetivos a abordar serán los siguientes:

▸ Entender los diferentes elementos que componen las infografías y las técnicas de

visualización de datos, así como sus distintos estadios.

Big Data y Analytics 4


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Estudiar las diferentes fases que forman parte del proceso de tratamiento de los

datos de cara a su visualización, algunos de los tipos de gráficos más


empleados, así como las principales diferencias entre la visualización estática y
dinámica.

▸ Conocer las diferentes tecnologías y lenguajes de desarrollo en el ámbito de la

visualización de datos en entornos web y en el área de la ciencia de datos.

▸ Explorar las principales herramientas de inteligencia empresarial (business

intelligence) existentes en el ámbito de la visualización de datos y cómo pueden ser

utilizadas en entornos industriales.

▸ Conocer algunos casos de uso reales en los que se utilizan técnicas de

visualización de datos aplicadas a escenarios IoT.

Big Data y Analytics 5


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.2. Introducción a la visualización de datos

La primera pregunta que nos interesa considerar sería «¿por qué visualizar los

datos?». Los humanos están dotados de un potente sistema visual que es capaz

de establecer patrones a gran velocidad. Esta capacidad de percepción inherente a

nuestra condición humana nos permite alcanzar altos niveles de conocimiento.

El rápido e imparable aumento del volumen de información en las últimas décadas ha

hecho imprescindible acercarse al conocimiento de modos y técnicas para

representarla visualmente y mostrarla al público, de modo que este sea capaz de

extraer múltiples conclusiones. Recopilar y analizar los datos para finalmente

diseñar una visualización es el punto final a todo un proceso que tiene su origen en

la búsqueda del mensaje subyacente a un conjunto de datos.

La aplicación de big data en escenarios IoT requiere visualizaciones potentes que

ayuden a entender los datos mostrados, a explicar mejor un concepto o,

simplemente, a sintetizar el contenido de un volumen elevado de datos. Algunos

ejemplos prácticos los encontramos en la elaboración de mapas, la representación

de valores recogidos por estaciones meteorológicas o dispositivos wearables en

gráficas e infografías en diferentes portales web y aplicaciones móviles o en los

cuadros de mando en forma de dashboards que nos proponen los nuevos sistemas

de business intelligence.

Infografía y visualización de datos

A menudo se habla de los términos infografía y visualización de datos como

campos diferentes e independientes el uno del otro. Si bien es cierto que las

primeras representaciones infográficas cuentan con varios siglos de antigüedad, las

visualizaciones de datos tampoco son un invento reciente. Además, y como veremos

más adelante, en ocasiones una infografía y una visualización de datos pueden

diluirse y dar lugar a una sola estructura con una finalidad común.

Big Data y Analytics 6


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 1. Infografía sobre las aplicaciones IoT en el ámbito del healthcare desarrollada por FutureForAll.
Fuente: https://www.futureforall.org/images/iot-medical-750.jpg

Por un lado, una infografía es una forma de representar información a través de la

combinación de gráficos (ilustraciones, diagramas, mapas y otros recursos) y texto.

Big Data y Analytics 7


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 2. Ejemplo de infografía sobre el IoT desarrollada por Phoenix Internet. Fuente:

https://www.phoenixinternet.com/wp-content/uploads/2019/07/Infographic__PHOENIX_IOT.jpg

Por otro lado, una visualización de datos es un término tradicionalmente más

cercano a la comunidad científica con el que referirse a la creación de

representaciones visuales (realizadas informáticamente y normalmente dotadas de

interactividad) de datos abstractos con el fin de que el público pueda analizarlos y

ampliar su conocimiento.

Big Data y Analytics 8


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 3. Ejemplo de visualización de datos desarrollada por el Instituto Tecnológico de Castilla y León

(ITCL) acerca de la industra 4.0 Fuente: https://itcl.es/sta-servicios/industria-conectada-y-sostenible/

A lo largo de este tema se utilizarán los términos infografía y visualización

indistintamente por su naturaleza común y los muchos elementos estructurales que

comparten.

Ambos términos responden a un mismo objetivo común: ayudar a comprender una

información e invitar al análisis y la reflexión sobre el mismo. De este modo, el


receptor de la información puede descubrir patrones y relaciones hasta ahora

desconocidas, es decir, permite inferir conocimiento.

Importancia de la infografía y la visualización de datos

Big Data y Analytics 9


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

¿Por qué visualizar los datos? La infografía y la visualización permiten que el público

pueda percibir rápidamente las relaciones entre los datos. Uno de los grandes

beneficios de la visualización es la cantidad de información pura que puede ser

interpretada en décimas de segundo. Esto es posible gracias a que utiliza el mismo

lenguaje que nuestro propio sistema cognitivo.

Un ejemplo práctico de aplicación IoT industrial de la importancia de la infografía y la


visualización de datos podemos encontrarlo en el análisis de consumos

energéticos de las distintas sedes de una industria multinacional.

En primer lugar, se dispone de los datos en bruto, los cuales forman tablas enormes

y difíciles de entender.

Figura 4. Ejemplo de dashboard para la monitorización de la producción y consumo energético (Bold BI).

Fuente: https://samples.boldbi.com/solutions/energy/energy-monitoring-dashboard

La representación de estos valores en gráficas de barras nos ayudaría a entender


mejor la información, pudiendo apreciar comparaciones y evoluciones, entre otros

aspectos. Por otro lado, podría desarrollarse una infografía consistente en la

representación de todas las sedes en un mapa mediante círculos de diferentes áreas

en función de su consumo energético.

Big Data y Analytics 10


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Otro ejemplo práctico, en este caso en el ámbito del IoT de consumo, son las

aplicaciones de monitorización de la actividad física de los usuarios, como

Google Fit, Apple Fitness (antes Activity), Freeletics, etc. En estos casos se recoge

información (GPS, acelerómetros, pulso, ECG, peso, etc.) a partir de pulseras de

actividad, smartwatches, básculas conectadas y el propio smartphone para

monitorizar la actividad física y proporcionar recomendaciones para evitar el

sedentarismo.

Figura 5. Google Fit (Google España Blog oficial). Fuente: Xataka, 2019.

En este caso, la información mostrada ha de ser suficientemente atractiva y

comprensible para todos los usuarios, pues el público de la visualización es

diferente que en un escenario especializado en el cual analistas o expertos en BI

escudriñan la información.

En definitiva, infografía o visualización juegan un papel fundamental en el momento

Big Data y Analytics 11


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

actual debido a que la cantidad de información disponible se multiplica sin cesar y

necesita ser filtrada y organizada. Así, el público podrá informarse desde un

enfoque más analítico y dar respuesta a una pregunta o formular cuestiones nuevas.

Estadios de la visualización

En líneas generales, podemos distinguir cinco estadios básicos en el proceso de la

visualización:

▸ 1. Investigación.

▸ 2. Selección de datos.

▸ 3. Creación de un boceto.

▸ 4. Elaboración.

▸ 5. Percepción y conocimiento.

Estas etapas pueden variar entre unos profesionales y otros, e incluso se puede

retroceder a etapas previas, sobre todo en los niveles 1, 2 y 3, con el fin de

enriquecer o matizar algún punto del proceso. Estos estadios son definidos con

mayor detalle en la figura 6.

Big Data y Analytics 12


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 6. Etapas que componen el proceso de visualización. Fuente: Elaboración propia.

▸ 1. Investigación. Una vez seleccionado el tema sobre el que se va a trabajar y

realizar la visualización, comienza el proceso de investigación. Una buena


investigación parte siempre de la búsqueda y recopilación de fuentes de

información sólidas. Es necesario identificar qué fuente o fuentes pueden


proporcionar la información más precisa para elaborar la infografía y para dar
respuesta a la pregunta o preguntas planteadas inicialmente. Para ello, en muchas
ocasiones se puede hacer uso de las fuentes de datos abiertas existentes en
Internet. Además, siempre que exista al menos otra fuente, es imprescindible

contrastar los datos entre ellas.

Big Data y Analytics 13


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ 2. Selección de datos. Con el material recopilado, el diseñador habrá de realizar

una selección de aquella información que sea susceptible de formar parte del gráfico.
Para ello, organizará la información de manera que pueda ser transformada en

artefactos fáciles de manipular.

▸ 3. Creación de un boceto. Un boceto es un esquema previo a la ejecución de la

visualización. Es una materialización embrionaria de nuestras imágenes mentales,

representaciones muy rápidas, simples y con poco detalle, pero que para el analista
de datos suponen una guía orientativa del trabajo que se realizará más tarde.
Normalmente el boceto contiene la estructura primaria y algunos apuntes básicos, en
cualquier momento modificables, de lo que será el proyecto visual. El objetivo
fundamental es escoger la mejor manera de representar la información ya
sintetizada. En este sentido, se pueden emplear herramientas de creación de mock-

ups (para dashboards, aplicativos web o aplicaciones móviles).

▸ 4. Elaboración. El proceso de elaboración de una visualización da como resultado

una representación en la que mostramos las ideas que ya han sido

completamente desarrolladas. En este estadio, los datos son transformados en


una representación comprensible por los receptores de la información. A este
respecto, se llevará a cabo un proceso de selección de la herramienta o
herramientas más adecuadas para llevar a cabo nuestra visualización.

Big Data y Analytics 14


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ 5. Percepción y conocimiento. El último estadio del proceso de visualización, una

vez que esta ha sido publicada, es la percepción y el conocimiento. En el momento


en que la retina del ojo humano ve una imagen, el cerebro percibe parte de lo
observado e inicia el proceso cognitivo a través del cual asimila y procesa los datos.

Big Data y Analytics 15


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.3. Trabajar con datos

En la actualidad es habitual escuchar la expresión «la información es poder». Sin

embargo, en realidad, la idea que subyace no es válida, sino que deberíamos

aceptar mejor la expresión «el conocimiento es poder, la información no», ofrecida

por el filósofo R. Lewis (Alcalde, 2015).

En efecto, la cantidad de información a nuestro alcance, desde la popularización de

Internet, es realmente abrumadora. La capacidad de almacenarla, incluso a nivel

personal, es cada vez mayor con la ayuda de sistemas de almacenamiento en la

nube orientados a usuario final, como pueden ser Dropbox, Google Drive,

OneDrive o iCloud.

Estos sistemas, a su vez, están basados en servicios de almacenamiento de

objetos en la nube, como son Simple Storage Service (S3) de Amazon Web

Services (AWS), Blob Storage de Microsoft Azure o Google Cloud Storage de Google

Cloud Platform (GCP).

Asimismo, existen diferentes servicios de bases de datos como servicio (database

as a service , DbaaS), bien sean relacionales (por ejemplo, AWS RDS, Azure SQL

Database, Google Cloud SQL, Google Cloud Spanner) o NoSQL (AWS DynamoDB,

Azure Cosmos DB, Google Cloud Datastore, Google Cloud Bigtable), así como data

warehouses gestionados (AWS Redshift, Azure SQL Data Warehouse, Google


Cloud BigQuery).

Resulta, por tanto, sumamente complicado absorber toda esta información y extraer

de ella el conocimiento que necesitamos. De este modo, queda cada vez más

patente que lo complicado ya no es tanto capturar y almacenar datos, sino su análisis

de cara a poder representar posteriormente de forma adecuada y comprensible dicha

información de forma estática o dinámica.

Big Data y Analytics 16


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Para comunicar adecuadamente de forma gráfica nuestra visión sobre un conjunto

de datos, estos se han de mostrar atendiendo a criterios estratégicos. Es

importante visualizar esos datos de manera que se puedan comprender

adecuadamente y, gracias a ello, tomar decisiones informadas y correctas.

Cuando se trata de convertir datos en información, los datos de los que se parte

tienen una gran importancia. Estos pueden ser simples factoides (de los que alguien

más ya ha realizado todo el análisis) o transacciones en bruto, donde la

exploración se deja enteramente al usuario.

De cara a su correcta visualización, un paso imprescindible que ha de ser llevado a

cabo es ser capaz de analizar e identificar los tipos de variables que conforman

un conjunto de datos, ya que de la tipología de estas variables dependerá en gran

medida qué expresión gráfica será más eficaz. Entre las diferentes variables
podemos diferenciar las siguientes:

▸ Categóricas: aquellas cuyos posibles valores representan categorías y que pueden

ser:

• Nominales: las diferentes posibles categorías no presentan un orden

predeterminado entre sí, como por ejemplo la variable «género literario»: ficción,
terror, romance, etc.

• Ordinales: aquellas en las que sí existe un orden predeterminado, como en la

variable «titulación académica»: grado, máster, doctorado, etc.

▸ Cuantitativas: aquellas cuyos posibles valores representan numéricamente

cantidades o mediciones.

Big Data y Analytics 17


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

• Continuas: los valores pueden tomar decimales (número reales).

• Discretas: los valores no pueden presentar una parte fraccionaria (números


enteros).

Recolección de datos

La recolección de datos es esencial para la adecuada visualización del conocimiento

que se desprende de los mismos por los sesgos que se pueden producir. Para esta

recolección se pueden usar técnicas no triviales, como el correcto diseño de

encuestas que han de cumplimentar los trabajadores de determinados

departamentos, hasta las utilizadas en grandes sistemas que coleccionan datos de

cientos de miles de dispositivos IoT o sensores en fábricas para su posterior análisis

con herramientas de big data.

Por otro lado, la recolección de datos no solo se realiza con recursos propios, sino

que pueden utilizarse datos de terceros. Estas fuentes de datos externas pueden

ser:

▸ Públicas: como ya hemos expuesto en temas previos, hoy día existen muchísimas

fuentes de datos externas accesibles gracias al movimiento de contenidos abiertos


(open data, linked open data —LOD—, big and open linked data —BOLD—), donde
se comparten (y compartimos) datos para su análisis libre por terceros.

• Muchas instituciones, gobiernos y organizaciones han establecido políticas de

liberación de datos al público en pro de la transparencia.

• También las empresas privadas publican en ocasiones fuentes de datos abiertas con

el fin de fomentar que la comunidad académica u otras empresas resuelvan un


problema que ha de afrontar la empresa que publica los datos o una parte o la

Big Data y Analytics 18


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

totalidad de la sociedad en general.

▸ Privadas: puede suceder que en algún momento tengamos acceso a un conjunto de

datos especial debido a nuestro estatus dentro de una red en particular, o bien que
se trate de datos a la venta por terceros para los que se ha de firmar una licencia de
acceso y uso especial, así como abonar una cantidad económica a cambio de la

misma.

Preparación y limpieza de datos

Es importante llevar a cabo tareas preliminares de preparación de los datos,


especialmente cuando se trata de datos recolectados por terceros. Aunque buena

parte de estas tareas se pueden agilizar con herramientas informáticas, casi siempre

hay una parte de labor manual que suele hacer de esta fase una etapa ingrata para

muchos.

La preparación de datos puede ser llevada a cabo de numerosas formas diferentes,

todas ellas complementarias entre sí:

▸ Separar los campos que nos serán útiles. Por ejemplo, en las direcciones

postales separar la calle de la ciudad y la provincia.

▸ Identificar datos incompletos y vacíos.

▸ Uniformizar unidades y realizar conversiones de unidades de medida. Por

ejemplo, si existen para un campo cantidades expresadas a la vez en centímetros o


en pulgadas en diferentes registros, o en metros y kilómetros al mismo tiempo.

Big Data y Analytics 19


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Tras la preparación de datos, se debe realizar la limpieza de datos (en ocasiones

esta etapa es conocida también como fregado de los datos o depuración de los

datos, usándose los términos data cleaning, data scrubbing o data cleansing; de

hecho, también se considera con frecuencia a la limpieza de datos una fase dentro

de la depuración de los datos y esta, a su vez, dentro de la preparación de los datos):

▸ Identificar datos erróneos o carentes de sentido. Por ejemplo, un valor «1234» en un

campo utilizado para nombres de personas.

▸ Eliminar duplicados.

▸ Verificar rangos. Por ejemplo, un dato de temperatura ambiente que difícilmente

puede ser de 224 °C en la superficie de la Tierra.

▸ Verificar ortografía y errores tipográficos.

▸ Examinar la sintaxis utilizando patrones y expresiones regulares. Por ejemplo, para

verificar el formato de direcciones de correo electrónico.

Transformación de datos

La transformación de datos es uno de los procedimientos de manipulación más

comunes que pueden revelar características ocultas de los datos que no son

observables en su forma original.

Podemos transformar la distribución de los datos para hacerlos más fáciles de

observar y para que se cumplan los requisitos de numerosas pruebas

estadísticas. Esto normalmente se realiza sustituyendo una variable por una función

matemática que opera sobre dicha variable.

Big Data y Analytics 20


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Una de las suposiciones más frecuentes de las pruebas estadísticas es que los datos

tengan una distribución normal (en forma de campana de Gauss con datos

dispersos en torno a un valor central, tal y como puede observarse en la figura 7).

Los valores sesgados, al contrario que la distribución normal, tienden a presentar

más observaciones a la izquierda o a la derecha del valor más frecuente, es decir, la

moda (véase también la figura 7).

Algunas de las transformaciones más ampliamente utilizadas son la transformación

logarítmica o la transformación mediante raíz cuadrada.

En el caso de distribuciones cuantitativas, otra forma de transformar los datos es

mediante su reexpresión a través de medidas de tendencia central, como la

media o la mediana, lo que nos permite resumir una serie de datos a través de un

único valor.

Big Data y Analytics 21


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 7. Distribución normal y distribuciones con sesgo positivo y negativo.

L a ventaja de usar estas medidas de tendencia central es que simplifican la

realidad expresada por el conjunto de los valores, pero su desventaja es que este

único valor representativo del conjunto de los valores poco nos dice acerca de la

distribución de los valores resumidos.

Un ejemplo de este problema de representatividad es el cuarteto de Anscombe

(1973) (figura 8), en el que los cuatro conjuntos de datos mostrados presentan la

Big Data y Analytics 22


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

misma media tanto en como en , siendo e , así como la

misma recta de regresión lineal, siendo esta para los cuatro casos,

pero cuyas formas originales de los datos son notablemente diferentes entre sí.

Figura 8. Cuarteto de Anscombe. Fuente:


http://www.sjsu.edu/faculty/gerstman/StatPrimer/anscombe1973.pdf

Visualización de datos

Para realizar una correcta visualización de los datos, en primer lugar, se ha de

determinar claramente el mensaje o la información a transmitir. Suele ser útil

preguntarse ¿qué es lo que sé?, ¿qué significa?, ¿por qué es importante? Si no se

puede resumir el mensaje clave en una frase concisa, probablemente necesitemos

darle una vuelta más y repensar la cuestión.

Una vez determinado el mensaje, se debe considerar la importancia de entender a la

Big Data y Analytics 23


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

audiencia destino, sobre todo, para determinar cuáles y cuántos de los datos se

deben ilustrar. A la hora de decidir cuántos datos se presentarán, es esencial

entender que «más» no siempre es sinónimo de «mejor», salvo que tenga sentido a

la hora de apoyar el mensaje.

En numerosas ocasiones se utiliza la narrativa, entendida como una historia en la

que se presentan una serie de hechos que conducen gradualmente a la audiencia

hacia el mensaje clave. Para probar si la narrativa es efectiva, se puede valorar si al

suprimir o reordenar alguna de las ilustraciones el mensaje sigue siendo claro o se

desvirtúa de alguna forma.

Finalmente, conviene destacar que existen numerosas técnicas y consejos a la hora


de representar visualmente la información, desde el tipo de gráficas (de barras,

apiladas, de tarta, etc.) hasta el uso que se ha de llevar a cabo en relación con la

tipografía y los colores, pasando por el etiquetado de los elementos representados.

Todo esto es una mezcla de ciencia y arte por sí solo y existen numerosos libros y

artículos publicados al respecto (Quispel y Maes, 2014).

Big Data y Analytics 24


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.4. Definición y tipología de gráficos

Un gráfico es una representación visual de información. Esta demostración puede ser

figurativa o no figurativa. Los gráficos no figurativos muestran la información

mediante un sistema previamente establecido y generalizado. El modo de visualizar

los datos es abstracto y no guarda parecido real con lo que se representa, sin

embargo, es reconocido por una amplia mayoría de personas.

Figura 9. Ejemplo de gráfico no figurativo representando costes de producción mensuales de diferentes

fuentes de energía. Fuente: https://samples.boldbi.com/solutions/energy/energy-monitoring-dashboard

Los gráficos no figurativos son una forma fácil y sencilla de descubrir y reflejar

patrones y tendencias procedentes de una colección de datos, así como las

relaciones que se pueden establecer entre ellos.

Gráficos no figurativos

Algunos de los gráficos no figurativos más representativos son los siguientes:

Gráficos estadísticos

Los gráficos no figurativos por excelencia son los gráficos estadísticos. Estos tipos de

Big Data y Analytics 25


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

gráficos permiten mostrar grandes conjuntos de datos de manera que pueden

ser percibidos y comprendidos de manera inmediata por el lector. Entre los

principales gráficos estadísticos contamos con los siguientes:

▸ Gráficos o diagramas de barras.

▸ Histogramas.

▸ Polígonos de frecuencias.

▸ Pictogramas (aunque, en este caso, se trataría de un diagrama figurativo , como

veremos más adelante).

▸ Gráficos de líneas.

▸ Gráficos o diagramas de sectores (tartas).

▸ Diagramas de cajas y bigotes ( boxplots).

Gráficos de barras

Dentro de los gráficos estadísticos, los gráficos de barras son representaciones de

datos por medio de rectángulos paralelos cuya extensión será igual al valor

que se desea reflejar. Pueden utilizarse para:

▸ Realizar comparaciones entre valores.

▸ Mostrar cómo un valor ha ido evolucionando en el tiempo (series temporales).

▸ Mostrar la frecuencia con la que aparece un valor o rango de valores en una muestra

(histogramas).

Big Data y Analytics 26


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Si además unimos los puntos de la base superior de cada barra en un diagrama de

barras (o histograma) mediante una línea, hablaremos de un polígono de


frecuencias.

▸ Reflejar un ranking de valores de mayor a menor o viceversa.

▸ Visualizar la desviación entre dos conjuntos de valores.

▸ Representar las subdivisiones de un valor entero.

▸ Ver las relaciones entre dos conjuntos de valores.

▸ Mediante gráficos de barras apiladas se puede, además, mostrar una distribución de

diferentes componentes dentro de cada valor mostrado.

Si en lugar de barras utilizamos una figura representativa de la magnitud que se está

mostrando, hablaremos de pictogramas (ver más adelante a este respecto la figura

15).

Big Data y Analytics 27


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 10. Ejemplo de gráfico de barras apiladas representando el consumo energético en un edificio en el

tiempo. Fuente: Interempresas.

Gráficos de línea

Los gráficos de línea son representaciones de datos por medio de puntos

conectados por una línea. Cada punto corresponde al valor que se quiere mostrar.

Ofrecen las siguientes funciones:

▸ Mostrar cómo un valor ha ido evolucionando en el tiempo (series temporales).

▸ Visualizar la desviación entre dos conjuntos de valores.

▸ Representar las subdivisiones que conforman cada valor agregado.

Estos son los más adecuados para mostrar la evolución de un valor cuantitativo

a lo largo de una línea temporal (figura 11).

También son muy frecuentes los gráficos en los que se representan varias líneas con

el fin de mostrar tendencias o relaciones entre ellas a lo largo de un mismo período


de tiempo.

Big Data y Analytics 28


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 11. Gráfico de líneas representando medidas de velocidad de viento en diferentes turbinas

(aerogeneradores) de AWS IoT SiteWise Monitor (usado en aplicaciones industriales). Fuente: AWS

Documentation.

Tartas

Las tartas son un tipo de gráfico con forma circular cuyas particiones

corresponden a cada parte de un valor total que equivale al 100 %. Su función

es, habitualmente, representar las distintas subdivisiones que conforman un valor


agregado.

Big Data y Analytics 29


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 12. Ejemplo de gráficos de tarta (parte superior) y de barras (parte inferior). Fuente: Datamatic.

En ocasiones, puede ser mejor utilizar un gráfico de barras (figura 12, parte inferior)

en vez de la habitual tarta (figura 12 parte superior), por ejemplo, cuando tenemos

más de cuatro o cinco particiones. La lectura de los datos se hace más directa y se

comparan mejor mediante un gráfico de barras, como vemos en la imagen de la

figura 12 en la parte inferior. También, como en la misma figura, cuando es necesario

observar una evolución temporal o espacial (por zona) no solo en la distribución de

las subdivisiones, sino en el valor total (por ejemplo, el valor total o 100 % de cada

Big Data y Analytics 30


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

año).

Visualización de conjuntos de datos ligados temporales y espaciales

En ocasiones nos encontraremos con conjuntos de datos entre los que podemos

establecer una relación temporal o espacial. Para ello, la mejor manera de

representarlos es a través de líneas de tiempo o mediante el uso de mapas.

Líneas de tiempo

Una línea de tiempo es un modo de representar datos a lo largo de un eje

cronológico. Su principal función es identificar la conexión de un dato con un

punto temporal y, en algunos casos, revelar posibles tendencias y patrones

dentro del conjunto a lo largo del tiempo. Las líneas de tiempo se pueden orientar

horizontal o verticalmente.

Mapas de flujo

Mediante los mapas de flujo se representa el movimiento y la conexión existente

entre puntos. Esta relación se establece por medio de una línea cuyo ancho es

proporcional al valor que queremos representar.

La realización sistematizada de este tipo de mapas se le atribuye a Charles Minard


(1781-1870). Véase un ejemplo de este tipo de mapas en la figura 13.

Big Data y Analytics 31


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 13. Uso estimado de la energía en Estados Unidos en 2017. Fuente: https://www.vox.com/energy-
and-environment/2017/4/13/15268604/american-energy-one-diagram

Mapas coropléticos o mapas de coropletas

Son un modo de representar datos estadísticos acotando áreas. ¿Cómo codificar

estas regiones? Usando colores diferentes, diferentes gradaciones de un mismo

color, formas, texturas, etc. Deberán ir acompañados de una clave expresando a qué

corresponde la codificación seleccionada (véase figura 14).

Big Data y Analytics 32


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 14. Porcentaje del uso de energía renovable en Europa en 2016 por país. Fuente: Wikipedia, 2016.

Gráficos figurativos

Los gráficos figurativos muestran la información mediante recursos que guardan

parecido real con lo que representan. Estos recursos suelen ser mapas,

fotografías, ilustraciones, etc. El público a primera vista relaciona lo que se le

muestra con el objeto o proceso que se quiere explicar.

Los gráficos figurativos son muy cercanos para el lector y permiten

comprender de una manera sencilla fenómenos que pueden ser muy

complejos. Suelen ser muy atractivos y captan rápidamente la atención

del lector.

Un ejemplo muy típico de estos gráficos son las cartografías.

Otro ejemplo son los pictogramas o pictografías, una variante de los gráficos de

Big Data y Analytics 33


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

barras en las que en lugar de barras mostramos pictogramas representado de alguna

forma temática la magnitud de la que se está tratando (figura 15).

Figura 15. Ejemplo de pictograma representando producción de energía nuclear. Fuente: Conceptdraw.

Anatomía de un gráfico

Todos los gráficos comparten unos elementos que aportan pistas para ayudarnos a

comprender mejor la historia que representan. En el caso de los gráficos

estadísticos, es importante diferenciar los siguientes componentes (ver figura 16):

Big Data y Analytics 34


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 16. Anatomía básica de un gráfico estadístico. Fuente:

https://documentation.sas.com/api/docsets/graphref/9.4/content/images/partsofbarline.png?locale=en

▸ Título: al igual que sucedería en un informe, deberá ir encabezado por un titular que

sea muy directo y que llame la atención de nuestro público consumidor de la


información (gerente, usuario final, científico de datos, director de fábrica, operario)
introduciéndoles al tema en cuestión.

▸ Subtítulo: en el subtítulo debemos de incluir detalles que no vienen indicados en el

titular, pero que son importantes para comprender el contexto del gráfico, un ejemplo
es el período de referencia de los datos. No olvidar nunca indicar las unidades de

medida en que están expresado los datos en el gráfico: porcentaje, euros,

Big Data y Analytics 35


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

persona, etc.

▸ Clave o leyenda: nos explica el modo en que se ha codificado el gráfico.

▸ Eje Y (o eje de ordenadas) es el eje cuantitativo. Indica mediante una escala la

frecuencia con que se produce cada valor de la variable. Puede estar presente o no
en el gráfico o bien presentar otra forma diferente si no estamos trabajando con un
gráfico cartesiano.

▸ Eje X (o eje de abscisas) es el eje categórico. Expresa los valores de la variable. Al

igual que en el anterior eje, puede estar presente o no en el gráfico o bien presentar
otra forma diferente si no estamos trabajando con un gráfico cartesiano.

▸ Línea de referencia: aporta información que nos ayuda a contextualizar datos

mediante comparación.

▸ Fuente: en el pie se incluirá siempre el origen de los datos mostrados. En el caso de

los gráficos interactivos es interesante incluir un enlace a la fuente de información


que muestre el origen de los datos por si el consumidor de la información desea
consultar algo o ampliar la información analizando los datos más a fondo.

Si nos fijamos, la estructura básica de este tipo de gráficos es extrapolable a

cualquier visualización: cabecera, cuerpo y pie. Además, siempre nos vamos a

encontrar con los elementos básicos como el título, el subtítulo y la fuente. Más

adelante veremos cómo se estructuran estos y otros elementos tanto si estamos ante

una visualización estática como si trabajamos con proyectos dinámicos e

interactivos.

Big Data y Analytics 36


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.5. Visualización estática

Las visualizaciones estáticas representan información que normalmente no va a

experimentar cambios y que no requiere de interacción por parte del lector. Se

pueden realizar tanto para soportes impresos como digitales, ya que el formato de

salida generado es una imagen.

En ocasiones, un gráfico estático ofrece la información de manera más clara que si

se hiciera mediante un recurso interactivo o dinámico. Fijémonos en la figura 17. Este

tipo de diagramas son utilizados habitualmente por la firma sueca IKEA para el

montaje de sus muebles.

Big Data y Analytics 37


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 17. Explicación gráfica de un proceso de montaje. Fuente: IKEA.

La ventaja que ofrecen es que el usuario puede ir hacia delante o atrás

en cualquier paso con un simple movimiento del ojo a la vez que monta

esta estantería. Por otro lado, las representaciones estáticas obligan a

imaginar mentalmente la secuencia, por lo que el aprendizaje es más

profundo.

Big Data y Analytics 38


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Las visualizaciones estáticas son características y de obligado uso en los medios

impresos y de fácil integración en los medios digitales. En ambos casos, una vez

publicadas no van a experimentar ninguna variación en su diseño y estructura.

El resultado de una visualización estática será un archivo de imagen. Existen

múltiples formatos de salida cuyo uso dependerá del destino de publicación del

recurso, distinguiendo principalmente entre soportes impresos y soportes digitales:

▸ Soporte impreso: si trabajamos pensando en publicar nuestra visualización en un

medio impreso, podemos escoger entre varios formatos de salida que tendrán en
común una alta calidad de imagen.

▸ Herramientas como Adobe Illustrator permiten guardar los recursos creados como

imágenes vectoriales EPS o PDF o como una imagen de mapa de bits, TIFF.
Son formatos que ofrecen mucho detalle, por lo que resultan idóneos para las
publicaciones impresas.

▸ Soporte digital: por el contrario, los medios digitales no suelen requerir resoluciones

tan altas por lo que exportaremos nuestros trabajos en formatos como JPG, PNG
(mapa de bits) o SVG (vectorial).

Además de Adobe Illustrator existen otras herramientas como CorelDRAW, Inkscape,

Infogram, Picktochart, Creately o Easelly. Por supuesto, además podemos usar

cualquier herramienta de visualización dinámica y exportar una captura o un frame

para ser utilizado como un gráfico estático.

Big Data y Analytics 39


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.6. Visualización dinámica

Las visualizaciones dinámicas representan información que va a experimentar

cambios (imaginemos, por ejemplo, un mapa que indique la localización de recursos

que actualice en tiempo real). Este tipo de representaciones pueden ofrecer al

consumidor de la información la posibilidad de profundizar en los datos mediante

opciones de interacción.

La interactividad en la visualización permite el intercambio de

información entre la máquina y el consumidor de la información, además

requiere de cierto grado de participación de este último.

La visualización dinámica ofrece ventajas frente a la estática, ya que esta última en

ocasiones puede verse limitada por un espacio que está muy definido, sobre todo en

el caso de un medio impreso. Un gráfico interactivo puede estar compuesto de varias

pantallas dentro de la principal o incluir enlaces que nos lleven a otras páginas donde

podremos ampliar una información específica.

Un ejemplo claro de visualización dinámica la ofrece la plataforma de Google

Maps, que ofrece imágenes obtenidas mediante satélite. En la figura 18 vemos

como, tras utilizar una de las opciones de interactividad obtenemos un mapa, en este

caso hemos hecho uso del buscador introduciendo el término Logroño.

Big Data y Analytics 40


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 18. Visualización dinámica de la ciudad de Logroño (España) obtenida a través de Google Maps.

Fuente: Google Maps, 2021.

Por un lado, existen otras herramientas con las que podemos desarrollar trabajos de

animación, como son Adobe Edge Animate, Tamult Hype o Adobe Flash

Professional.

Por otro lado, existen herramientas desarrolladas especialmente para crear

interesantes visualizaciones a partir de conjuntos de datos abiertos u open data

como son Gapminder y Google Public Data Explorer.

Existe un extenso abanico de posibilidades a la hora de mostrar la información

dinámicamente. Aquellos analistas de datos con conocimientos avanzados en

programación o que están integrados en un equipo en el que también existen

desarrolladores, pueden emplear para dichas visualizaciones lenguajes HTML, CSS

y JavaScript para crear presentaciones de datos interactivas que forman parte de la

capa de presentación de datos dentro de la capa de aplicación de una

determinada solución (plataforma o sistema) para visualizar la información y el

conocimiento obtenidos.

Big Data y Analytics 41


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En este caso, en el que se está desarrollando un front-end específico en nuestra

solución, es muy frecuente emplear, además, frameworks sobre JavaScript que

facilitan la presentación de datos de forma reactiva como Angular.js o el nuevo

Angular 2 o simplemente Angular (Google), React.js (creado por Facebook) o Vue.js

(creado por Evan You, previamente trabajador en Google en el proyecto Angular.js),

siendo los tres ejemplos distribuidos como librerías JavaScript de código abierto.

Estos frameworks permiten separar el modelo de los datos de la vista de dichos

datos y el controlador (controles de la interfaz) que manipula el modelo de los datos,


siguiendo un patrón modelo-vista-controlador (MVC) o una variante del mismo

(Vue.js utiliza, por ejemplo, un patrón modelo-vista-modelo de la vista, MVVM).

En todos dichos casos, los datos en sí mismos están completamente desacoplados

de la interfaz, siendo solo manipulados directamente por el back-end (conjunto de

servicios web, por ejemplo, que interaccionan con el repositorio de datos). Esto

permite crear diferentes front-end para interaccionar con un único back-end (por

ejemplo, diferentes aplicaciones de escritorio, Web y móvil interaccionando con una

única plataforma o sistema).

Big Data y Analytics 42


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 19. Patrón Modelo-Vista-Controlador. Fuente: Mozillademos, 2020.

Figura 20. Patrón modelo-vista-modelo de la vista usado en Vue.js. Fuente: Styde, 2016.

Asimismo, estos front-ends basados en tecnología web hacen frecuentemente uso

de otras librerías JavaScript para facilitar la creación del layout de la interfaz web
responsiva (es decir, que la interfaz se adapte y cambie su aspecto en función de si

accedemos a la misma mediante un ordenador de escritorio, una tablet o un

smartphone), como bootstrap (creada por Twitter), así como librerías para la

creación de gráficos para la presentación de datos a los usuarios, como Google

Charts, D3.js o Apache Echarts, las tres de código abierto, o Highcharts o

AmCharts, que son soluciones propietarias.

Big Data y Analytics 43


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 21. Ejemplo de matriz de diagramas de dispersión con Apache Echarts. Fuente:
https://echarts.apache.org/examples/en/editor.html?c=scatter-nutrients-matrix&theme=light

Así, Google Charts es una API de Google que permite introducir gráficos dinámicos

en tu propia web, desde sencillos gráficos de línea hasta complejos mapas de árbol.

Está dirigida a desarrolladores web y se basa en el lenguaje de programación

JavaScript.

Para crear un gráfico con Google Chart es importante cargar tres librerías: Google

JSAPI API, Google Visualization y la galería específica del gráfico seleccionado. A la

hora de preparar los datos, se deberá consultar la documentación de la API puesto

que, dependiendo del gráfico seleccionado, vamos a necesitar darles un formato u

otro. Cada tipo de visualización ofrece opciones de personalización como incluir un

título, añadir colores, ajustar el grosor de la línea, especificar el tamaño, etc.

Big Data y Analytics 44


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 22. Ejemplo de gráfico de barras con Google Charts. Fuente: Google Charts, 2021.

Por su parte, D3.js es una librería JavaScript de código abierto muy potente capaz

de cargar datos en una web y generar visualizaciones a partir de ellos.

D3 (data driven documents) se apoya en el uso del lenguaje de etiquetas HTML5, el

formato SVG ( scalable vector graphics) y el lenguaje CSS (hoja de estilo en cascada

que define la apariencia y el formato del documento). Al basarse en estos estándares

web, se adapta a la perfección a todo tipo de navegadores. En el proceso de

creación de D3 destaca, sobre todo, la figura del editor gráfico del New York Times,

Mike Bostock. La herramienta es de código abierto y se encuentra disponible de

manera gratuita en el repositorio GitHub.

Big Data y Analytics 45


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 23. Diagrama de Sankey construido mediante D3.js mostrando flujos de generación y demanda de

energía. Fuente: https://observablehq.com/@d3/sankey-diagram

Sin embargo, y como veremos más adelante, cuando no se requiere desarrollar una

capa de aplicación personalizada es habitual utilizar herramientas ya existentes

como Tableau, Grafana o Google Data Studio para presentar datos provenientes de

fuentes almacenadas en data warehouses (u otras fuentes) sin necesidad de

conocimientos de lenguajes de programación.

Big Data y Analytics 46


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.7. Herramientas de visualización

El aumento considerable del volumen de datos disponibles en la última década ha

propiciado la proliferación de herramientas estándar para la visualización de estos.

Mostrar los datos adecuadamente y hacerlos comprensibles a los consumidores de

la información es una labor actualmente al alcance de cualquier usuario que requiera

proporcionar dichas visualizaciones de forma eficiente y eficaz, sin necesidad de ser

un desarrollador, ingeniero de datos o analista de datos experto.

A lo largo de esta sección listaremos algunas de las herramientas más utilizadas en

la industria para la visualización de datos provenientes de diferentes fuentes,

habiendo sido algunas de ellas ya mencionadas a lo largo del tema.

Algunas herramientas sencillas para la visualización de datos

Datawrapper

Datawrapper un programa de código abierto para la creación de visualizaciones

de manera gratuita. La herramienta permite el acceso a opciones adicionales y

características mejoradas a través de diversos planes de pago y también cargar los

datos y generar gráficos de manera muy sencilla. Basta con crear un perfil con una

dirección de correo electrónico o a través de una cuenta de Twitter.

Timeline JS

Timeline JS es una herramienta de código abierto que permite construir líneas de

tiempo interactivas a partir de una hoja de cálculo. Podemos enriquecerlas

incluyendo material multimedia procedente de fuentes como Twitter, Flickr, Google

Maps, YouTube, Vimeo, etc. Una de las ventajas que ofrecen las cronologías

creadas con Timeline JS es que son responsive, con lo que adaptan su diseño al

dispositivo desde el cual se van a visualizar: escritorio, tableta o móvil.

Big Data y Analytics 47


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

RAWGraphs

RAWGraphs es una herramienta de código abierto centrada en la creación de

visualizaciones con D3.js de manera sencilla sin necesidad de tener conocimientos

de programación. Podemos descargar las visualizaciones en formato vectorial (SVG)

o como imágenes, así como obtener el código HTML para incrustarlas en nuestro

sitio web.

CartoDB

CartoDB es una aplicación en la nube que permite almacenar y visualizar datos

en la web a través de la realización de mapas interactivos. Se ofrece bajo la

modalidad de negocio freemium (el usuario parte de unos servicios básicos gratuitos

y tiene acceso a opciones más avanzadas mediante una serie de planes de pago).

Figura 24. Ejemplo de mapa realizado con CartoDB en aplicaciones de logística. Fuente:
https://go.carto.com/webinars/location-intelligence-logistics

Soluciones de presentación de datos e inteligencia empresarial

En la mayoría de las ocasiones, y enlazando con lo visto en anteriores temas,

contaremos ya con capas de ingestión (IIoT, fuentes externas abiertas, bases de

Big Data y Analytics 48


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

datos de la empresa, sistemas existentes en la empresa como ERP, MES, etc.),

almacenamiento (data warehouses, bases de datos NoSQL, etc.) y procesamiento de

datos (herramientas big data como Apache Spark, etc.), siendo nuestra intención

presentar informes y cuadros de mandos acerca de la información obtenida por la


fusión de datos y el conocimiento inferido a partir de modelos machine learning sin

necesidad de desarrollar capas de aplicación personalizadas.

Para ello, existe una gran variedad de soluciones de inteligencia empresarial o

business intelligence orientadas a la creación de dashboards de forma sencilla

eligiendo las fuentes de datos a representar, así como los tipos de gráficos más

apropiados, disponiendo los mismos en dashboards personalizados.

Asimismo, los principales proveedores cloud, como AWS, Microsoft Azure y Google

Cloud Platform, facilitan la integración de sus fuentes de datos y capas de

procesamiento de datos para la presentación de estas con este tipo de herramientas

y viceversa, es decir, dichas herramientas se han desarrollado pensando en la

presentación de datos almacenados en repositorios en la nube ofrecidos por los

distintos proveedores cloud y que ya vimos anteriormente en este Tema.

Es muy importante mencionar que los proveedores cloud no restringen las

herramientas en función de que proporcionen otras herramientas competidoras

en parte similares. Es decir, como ejemplos, es perfectamente posible utilizar Power

BI para mostrar datos existentes en repositorios BigQuery en Google, así como

utilizar Google Data Studio para mostrar información existente en AWS Redshift.

Tableau

Tableau Software es una empresa que proporciona soluciones de software de


presentación de datos e inteligencia empresarial basada en investigaciones

originadas en la Universidad de Standford. Ofrece diferentes versiones de su

software con distintos niveles de funcionalidades y precios. Permite conectarse con

diferentes fuentes de datos como Amazon Redshift, Google BigQuery o bases de

Big Data y Analytics 49


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

datos locales, entre otras, para crear cuadros de mando muy atractivos a la hora de

presentar información.

Tableau Public es una avanzada e intuitiva aplicación gratuita de creación y

publicación de gráficos interactivos, mapas, tablas, etc. Permite crear tableros que

incluyan varias representaciones gráficas de los datos dentro de la misma


visualización.

Figura 25. Ejemplo de dashboard en Tableau Public mostrando la calidad del agua de baño en Gran
Bretaña. Fuente: Tableau Public, 2016.

Sin embargo, Tableau ofrece versiones premium no gratuitas con una mayor

capacidad de almacenamiento de nuestros datos y más opciones para conectar

fuentes de datos. Tableau Desktop es la versión de escritorio que permite crear

cuadros de mando sin más que arrastrar diferentes fuentes de datos para su análisis.

Tableau Online permite realizar análisis de inteligencia empresarial en la nube

conectándose al mismo a través de un navegador web, mientras que Tableau

Server, aunque también se encuentra en la nube, permite a los miembros de las

organizaciones empresariales colaborar entre sí de forma más segura, ya que sigue

una política diferente a la hora de usar recursos en el cloud.

Big Data y Analytics 50


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Google Data Studio

Google Data Studio es una herramienta de Google para la creación de

dashboards completamente gratuita y que permite conectar numerosas fuentes de

datos con una amplia variedad de gráficos. Una de las principales ventajas de

Google Data Studio, además de su gratuidad, es que cuenta con un marketplaces

para utilizar conectores desarrollados por terceros. Esto incluye (noviembre de 2020)
más de 800 fuentes de datos sobre más de 320 conectores posibles, incluyendo los

propios de Google (BigQuery, Cloud Spanner, Google Analytics, Youtube Analytics,

etc.), así como conectores de terceros (algunos con coste) que permiten conectarse

a otras fuentes de datos y bases de datos en otros Cloud (AWS, Azure, etc.).

Figura 26. Ejemplo de dashboard creado con Google Data Studio. Fuente:

https://datastudio.google.com/u/0/reporting/1rBC8woDruwE-f_gsheY7kwlx0BPtgzEn/page/c2P1

Power BI

Al igual que otras herramientas de inteligencia empresarial, Power BI (de business

intelligence) es una solución de pago desarrollada por Microsoft y cuyo objetivo

inicial era proporcionar visualizaciones de inteligencia empresarial orientadas a

marketing, ventas o datos financieros. Power BI permite extraer datos de

fuentes como Excel, Google Analytics, Salesforce o redes sociales (LinkedIn,

Big Data y Analytics 51


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Twitter, Facebook, etc.).

Una de las ventajas más importantes de Power BI es que permite a los usuarios

interactuar mediante reconocimiento por comandos de voz usando técnicas de

procesamiento de lenguaje natural, lo cual la hace muy atractiva por parte de los

usuarios para obtener información y conocimiento adquiridos a partir de los datos.

Al igual que en el caso de Tableau, existen diferentes versiones de la herramienta en

función de las necesidades de los usuarios: Power BI Desktop, Power BI Pro, Power

BI Premium, Power BI Mobile (versiones de aplicaciones nativas para Windows

Mobile, Android, así como iOS) y Power BI Embedded (para ser integrado en

aplicaciones propias desarrolladas).

Figura 27. Cuadros de mando creados por Power BI Desktop. Fuente: Microsoft. Power BI, 2021.

Con el paso del tiempo, e influenciada por la plataforma Azure y, especialmente, los

componentes de Azure IoT, Power BI permite ingerir datos provenientes de fuentes

IoT, lo cual la hace muy interesante para visualizaciones de datos de mediciones de

sensores IoT, ya sea IoT industrial, Smart meters o IoT de consumo.

Grafana

Big Data y Analytics 52


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Grafana es una herramienta open source y gratuita que nació inicialmente para la

visualización de estadísticas de uso de la CPU en ordenadores y servidores.

Existen versiones para Linux, Windows, Mac, Docker (sistema de contenedores que

permite ir un paso más allá en la virtualización de nuestro equipo, sin necesidad de

instalar una copia completa del sistema operativo en cada contenedor en

funcionamiento y fácilmente orquestables en la nube mediante tecnología

Kubernetes de Google) e incluso ARM.

Figura 28. Ejemplo de arquitectura de ingestión, almacenamiento, procesamiento y visualización de datos

IIoT en la cual se involucra a Grafana. Propuesta por la empresa AMMP Technologies. Fuente: Grafana

Labs, 2019.

Big Data y Analytics 53


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 29. Ejemplo de uso de Grafana para mostrar datos IoT, creado por Dan Cech para el IoT Workshop

GrafanaCon 2019. Fuente: Grafana Labs, 2019.

En la actualidad, gracias a su marketplace de plugins, Grafana es una herramienta

que permite ingerir y mostrar datos de una gran variedad de fuentes como MySQL,

InfluxDB (series temporales), Prometheus (eventos en tiempo real), Google

BigQuery, AWS IoT SiteWise (servicio gestionado de AWS para tratar con datos de

equipos industriales), etc., así como incorporar nuevos elementos de visualización a

los dashboards que creamos.

Big Data y Analytics 54


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 30. Dashboard en Grafana leyendo datos de Prometheus. Fuente:


https://prometheus.io/docs/visualization/grafana/

Looker

Looker Data Sciences fue fundada en 2012. En 2019 fue adquirida por Google y

ahora Looker forma parte del ecosistema de componentes de Google Cloud Platform.

Looker es una herramienta de pago muy completa de inteligencia empresarial que

permite ingerir datos de múltiples fuentes, aplicar modelos de aprendizaje

automático y visualizar dicha información de forma profesional.

Big Data y Analytics 55


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 31. Ejemplo de uso de Looker con Stitch (para ingerir fuentes de datos en un data warehouse).

Fuente: Looker blog, 2021.

Figura 32. Uso de BigQuery Machine Learning (BQML) sobre Looker. Fuente: Looker blog, 2021.

Uno de los aspectos más interesantes de Looker es su sistema de bloques looker

blocks con licencia MIT que permite reutilizar piezas de código de terceros a partir de

un amplio directorio estructurado en diferentes clases: Analytics, Source (data

sources), Data Blocks, Data Tools, Viz Blocks (visualizaciones) y Embedded Blocks

(para incluirlos en nuestros portales web, por ejemplo, así como entornos de realidad

virtual, entre otras posibilidades).

Big Data y Analytics 56


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Qlik

Qlik nació en Suecia en 1993 (originalmente como Qliktech) y actualmente tiene su

sede en Estados Unidos. Qlik ofrece soluciones de pago orientadas a la

inteligencia empresarial y visualización de datos con una gran variedad de

posibles componentes y siendo destacable módulos específicos para datos IoT,

especialmente interesante en la industria 4.0.

Mientras que sus productos Qlik View están pensados para la visualización y el

análisis de datos basado en su motor asociativo, Qlik Sense se presenta como la

evolución de los productos de Qlik con un motor mejorado según información

promocional de la propia empresa.

Ofrecen diferentes esquemas de precios basados en diferentes niveles de

funcionalidad, tanto como un SaaS en la nube gestionada directamente por Qlink

como on premise.

Figura 33. Ejemplo de visualización de datos IoT usando Qlik. Fuente: Qlik blog, 2017.

Adverity

Adverity es una solución propietaria de pago que permite ingerir fuentes de datos

Big Data y Analytics 57


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

mediante más de 400 conectores diferentes (Amazon Redshift, MongoDB, Twitter,

Slack, BigQuery, Google Analytics, Shoppify, etc.), procesarlos, mostrarlos mediante

dashboards propios y aplicar modelos inteligentes para la creación de campañas.

Figura 34. Plataforma Adverity para la ingestión, procesamiento y presentación de datos. Fuente: Adverity.

Figura 35. Ejemplo de dashboard creado con Adverity. Fuente: Adverity, 2021.

Asimismo, Adverity permite volcar los datos finalmente a data warehouses o colas de

procesamiento en la nube (AWS, Azure, Google Cloud, Hadoop, MySQL) u otras

herramientas de visualización de terceros (Tableau, Google Data Studio, etc.).

Big Data y Analytics 58


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Funnel

Funnel es otra alternativa a Adverity y sigue una filosofía similar. Una plataforma de

pago que permite ingerir datos de más de 500 fuentes de entrada diferentes y

conectarlas a su salida a múltiples destinos, incluyendo una API propia (para su

conexión con herramientas desarrolladas por terceros), AWS S3/Redshift, Google

BigQuery/Cloud Storage, Azure, etc.

Figura 36. Imagen promocional de Funnel y su concepto como plataforma de tratamiento de datos.

Fuente: Funnel, 2021.

Lenguajes de programación para la presentación de datos personalizadas en


el ámbito de la ciencia de datos

Finalmente, y como ya se ha comentado, existe la posibilidad de desarrollar una

capa de presentación de datos personalizada dentro de nuestra capa de

aplicación. Tal y como se describió anteriormente, cuando se trata de interfaces

Web, usaremos HTML, CSS y JavaScript, además de frameworks reactivos como

Angular, React.js o Vue.js en combinación con librerías para la construcción de

gráficos como Google Charts o D3.js, entre otras posibilidades.

En el caso de que queramos personalizar nuestras presentaciones de datos

haciendo uso de lenguajes de programación desde un punto de vista más enfocado a

l a ciencia de datos o la aplicación de técnicas de inteligencia artificial los dos

lenguajes más empleados son Python y R.

El lenguaje Python y las librerías matplotlib y seaborn

Big Data y Analytics 59


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Python, ya introducido previamente en el temario de la asignatura, es un lenguaje de

programación creado por Guido van Rossum y lanzado en 1991 (y sí, el nombre

viene del célebre grupo humorístico británico Monty Python). Es el lenguaje más

empleado en el ámbito de la inteligencia artificial y el machine learning (Bansal,

2019), además de ser utilizado también para el desarrollo de aplicaciones web del

lado del servidor, el desarrollo de software en general, aplicaciones matemáticas o

scripting en la gestión de sistemas operativos.

Figura 37. Ofertas de empleo en machine learning y ciencia de datos en el portal Indeed según lenguaje

de programación. Fuente: Puget, J.F., 2016.

Una de las ventajas de Python es que cuenta con numerosas librerías desarrolladas

por la comunidad y que pueden ser utilizadas en función de las necesidades de

nuestros proyectos. En el caso de la aplicación de técnicas de inteligencia artificial,

ya hemos comentado con anterioridad librerías como Scikit-learn (para trabajar con

aprendizaje automático clásico) y TensorFlow y Keras (para trabajar con redes

neuronales y deep learning). Para implementar nuestros propios gráficos para la

presentación de datos, las librerías más extendidas son Matplotlib y Seaborn, que

Big Data y Analytics 60


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

en realidad trabaja sobre la primera.

Figura 38. Ejemplo de diagramas de líneas mostrando series temporales con Matplotlib. Fuente: Matplotlib,

2021.

Matplotlib es una biblioteca de Python muy popular para la visualización de datos.

Es particularmente útil cuando un programador quiere visualizar los patrones de los

datos. Es una librería de ploteo en 2D usada para crear gráficos y diagramas en 2D.

Un módulo llamado pyplot facilita a los programadores el trazado, ya que proporciona

características para controlar los estilos de línea, las propiedades de las fuentes, los

ejes de formato, etc. Proporciona varios tipos de gráficos y diagramas para la

visualización de datos, es decir, histogramas, tablas de error, chats de barras, etc.

Por su parte, Seaborn está construida sobre Matplotlib para hacer más sencilla la
tarea de dotar a los gráficos de una mayor calidad y detalle si es necesario un

acabado más atractivo.

Big Data y Analytics 61


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 39. Ejemplo de matriz de diagramas de dispersión utilizando Seaborn. Fuente: Seaborn, 2021.

El lenguaje de programación R

R es un dialecto del lenguaje S, desarrollado por John Chambers en Bell Labs,

iniciando su desarrollo en 1976, mediante bibliotecas Fortran como un entorno

interno para análisis estadístico. R es un lenguaje popular de modelado

estadístico que es utilizado por los científicos de estadísticas y datos.

Proporciona apoyo a un paquete estadístico diverso que se utiliza más ampliamente

para el análisis y la modelización de datos. Ross Ihaka y Robert Gentleman juntos

desarrollaron R en 1995 en la Universidad de Auckland. Para varios roles de análisis


de datos y computación estadística, R es una elección popular.

Según Bansal (2019), R se encuentra también en tercera posición como lenguaje

Big Data y Analytics 62


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

más empleado para la aplicación de técnicas de machine learning, tras Python y

Java. Según dichas fuentes, R es un lenguaje basado en gráficos que se utiliza para
la computación estadística, el análisis y las visualizaciones en el aprendizaje

de las máquinas. Para aquellos que quieren explorar datos estadísticos a través de

gráficos, es la plataforma perfecta. También es usado para una variedad de

propósitos por científicos de datos en Facebook, Google, y muchas otras grandes

compañías.

Si bien su curva de aprendizaje es más lenta que en otros lenguajes como Python y

no está concebido como un lenguaje de propósito general que permita implementar

back-end o trabajar con dispositivos IoT de consumo (por ejemplo, Raspberry Pi,

etc.), esta herramienta es de gran interés para el análisis estadístico, siendo una de

las más potentes en este campo y una de las más extendidas en el ámbito

académico y de la investigación.

Big Data y Analytics 63


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 40. Ejemplo de múltiples gráficos en una única figura utilizando R y ggplot2. Fuente: R Graph

Gallery, 2018.

Existen más de 10 000 paquetes en el repositorio de la distribución de la biblioteca

CRAN de R. Estos paquetes están hechos a medida para una variedad de

aplicaciones estadísticas. Mientras que R puede ser un lenguaje estadístico de

núcleo duro, proporciona un soporte extensible para varios campos, que van desde

la salud a la astronomía y la genómica.

R es popular por su amplio soporte de visualización. En el caso de la presentación de

datos, uno de los paquetes más extendidos es ggplot2. Este paquete proporciona

una amplia gama de capacidades gráficas que hacen que los datos sean interactivos

para los usuarios. Con la ayuda de ggplot2, los usuarios pueden aprovechar las

extensiones para aumentar la usabilidad y la experiencia personal.

En el vídeo Visualización de datos con Google Data Studio, podéis ver un

ejemplo sobre lo explicado en esta sección.

Además, podéis consultar también Visualización de datos con Tableau.

Big Data y Analytics 64


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.8. Visualización en escenarios IoT

En el ámbito de los escenarios IoT, y en concreto dentro del campo del big data que

nos atañe en esta asignatura, la visualización de datos es uno de los aspectos más

importantes a tener en cuenta para representar la información de forma que sea más

fácil de entender e interpretar y, en consecuencia, que resulte más rápido y eficiente

extraer conclusiones útiles a partir de ella. Así, existen múltiples casos de uso en los

que podemos aplicar las técnicas vistas a lo largo de este tema.

Mapas y realidad virtual aplicados en sistemas de localización en interiores

Un primer caso relevante es la representación de información a través de mapas,

mapas de calor o incluso realidad virtual. Tal y como podemos ver en la figura 41, la

empresa Ubisense utiliza varias de estas representaciones para su sistema de

localización en interiores basado en tecnología UWB y utilizada en diversas

aplicaciones industriales, como la localización de trabajadores, activos o maquinaria


dentro de fábricas.

Figura 41. Solución de localización en interiores para asegurar la distancia de seguridad entre trabajadores

en fábricas para evitar contagios por Covid-19. Fuente: Ubisense, 2020.

Big Data y Analytics 65


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En este caso podemos ver tanto entornos de realidad virtual como mapas de

calor, en los que se refleja el movimiento de trabajadores dentro de una nave

industrial. Este caso de uso en concreto de localización de trabajadores está

enmarcado dentro de la situación de pandemia por Covid-19 sufrida en el año 2020,

en el cual el objetivo es asegurar las distancias de seguridad entre trabajadores para

evitar potenciales contagios.

Más allá de la COVID-19, en general, gracias a la localización de personas,

mercancías vehículos (eléctricos) y sensores, se optimizan los procesos de entrega,

se mejora la gestión de los recursos y se reduce el tiempo de toma de decisiones.

Además, la representación de los mapas permite reconocer la ubicación de los

vehículos y sus cargas, permitiendo incluso la mejora de uso de los recursos

energéticos.

Figura 42. Muestra de información de ocupación estadística (mapas de calor) en la solución para asegurar

la distancia de seguridad entre trabajadores en fábricas para evitar contagios por Covid-19. Fuente:
Ubisense, 2020.

Mapas, mapas de calor y cuadros de mando en escenarios de smart cities y


territorios inteligentes

Big Data y Analytics 66


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

El uso de mapas, sistemas de información geográfica (GIS) y diversos cuadros de

mando (mapas de calor, gráficos de series temporales, etc.) son utilizados

frecuentemente en escenarios de ciudades inteligentes (smart cities) o territorios

inteligentes (smart territories). Como ejemplo, la plataforma Deep Intelligence

(Corchado et al., 2021) es una plataforma ciberfísica desarrollada para la gestión de

territorios inteligentes.

La plataforma facilita la implementación de métodos de adquisición y gestión de

datos, así como la representación de estos y la configuración de cuadros de mando.

Deep Intelligence permite el uso de cualquier tipo de fuente de datos, desde las

mediciones de un dispositivo de detección IoT multifuncional hasta bases de datos

relacionales y no relacionales. También es inteligente porque proporciona una capa

de inteligencia artificial para el análisis de datos; incluye técnicas de clasificación de

datos, clustering, previsión, optimización, visualización, etc.

Big Data y Analytics 67


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 43. Cuadros de mando para el análisis de datos y la muestra de predicciones incluyendo mapas de

calor en entornos smart cities y smart territories usando la plataforma Deep Intelligence. Fuente: Corchado

et al. (2021).

Además, es compatible con el concepto de edge computing, que permite la

distribución de inteligencia y el uso de sensores inteligentes. La plataforma optimiza

las decisiones tomadas por los expertos humanos a través de modelos de

inteligencia artificial explicables que obtienen datos de sensores IoT, bases de datos,

Internet, etc. La inteligencia global de la plataforma puede coordinar sus procesos de

toma de decisiones con nodos inteligentes instalados en el borde.

Big Data y Analytics 68


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Soluciones business intelligence para la elaboración de cuadros de mando

Por otro lado, la visualización de datos es especialmente importante en las

soluciones de business intelligence, de forma más concreta en la elaboración de

cuadros de mando (véase la figura 44), la cual presenta un cuadro de mandos

elaborado por la empresa CMI Gestión. En ella podemos ver la importancia que

adquiere la elección del tipo de gráficos que queramos representar dependiendo de

la información subyacente.

Figura 44. Cuadro de mando CMI Gestión. CMI Gestión, 2020.

Visualización de series temporales de consumos energéticos en entornos


industriales

Las gráficas y series temporales son otra de las visualizaciones especialmente útiles

en entornos de big data aplicados en el ámbito de la industria 4.0. La figura 45

representa una de las múltiples visualizaciones que la solución SimbleSense, de la

Big Data y Analytics 69


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

empresa Simble, ofrece a diferentes sectores de la industria para gestionar y analizar

el uso de la energía.

Figura 45. Benchmarking de consumo energético para una fábrica utilizando la herramienta SimbleSense
de Simble. Fuente: Simble, 2021.

En este caso podemos ver una representación del consumo diario para un período

de 30 días y un límite fijado para analizar qué días se obtienen picos de consumo.

De esta forma, el equipo gestor de la empresa en cuestión podrá analizar más en

profundidad el consumo energético durante los días de interés y tomar decisiones

para optimizarlo.

Infografías industriales elaboradas por Siemens

Ahondando en otro tipo de visualizaciones, las infografías también adquieren un

papel muy importante a la hora de explicar o exponer procesos complejos. Este tipo
de visualizaciones resume la información, plantea conclusiones, permite reflejar

flujos de datos e información y, entre otras cosas, permite identificar fases de

procesos concretos. La figura 46 representa un ejemplo de estas aplicaciones

Big Data y Analytics 70


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

desarrollado por Siemens.

Figura 46. Proceso de digitalización hacia entornos de Industria 4.0 definido por Siemens (2018). Fuente:

Siemens, 2018.

Cuadros de mando con información heterogénea por medio de Tableau

Finalmente, la combinación de múltiples tipos de información se convierte en una

herramienta muy potente a la hora de diseñar dashboards. Tal y como se ha visto a

lo largo del tema, en los últimos años han aparecido múltiples herramientas que

facilitan esta labor. La figura 47 muestra un claro ejemplo de estas combinaciones

realizado a través de la herramienta Tableau. En este caso se ha desarrollado un

cuadro de mando para una compañía aérea utilizando diferentes tipos de gráficos y

tablas.

Big Data y Analytics 71


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 47. Ejemplo de uso de múltiples tipos de visualización que ofrece la herramienta Tableau. Fuente:
https://www.slideshare.net/dghodke/tableau-airline-solutions

Los ejemplos planteados en esta sección son solamente un pequeño abanico de

todo lo que la visualización puede ofrecer a los diferentes sectores en los que se

involucran tecnologías IoT. Podemos afirmar que este es un campo en plena

expansión y evolución tanto a nivel representativo como a nivel técnico. Es


importante interiorizar que las grandes cantidades de datos requieren procesos de

síntesis, análisis y extracción de conclusiones cuyos resultados, en un gran número

de casos, se ven facilitados por la presentación de estos mediante visualizaciones

apropiadas.

Big Data y Analytics 72


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.9. Referencias bibliográficas

Alcalde, I. (2016). Visualización de la información: de los datos al conocimiento.

UOC.

Anscombe, F. J. (1973). Graphs in Statistical Analysis. The American Statistician,

27(1), 17-21. http://www.sjsu.edu/faculty/gerstman/StatPrimer/anscombe1973.pdf

Bansal, H. (2019). Best Languages For Machine Learning in 2020! Medium.

https://becominghuman.ai/best-languages-for-machine-learning-in-2020-
6034732dd242

Chiasson, T., Gregory, D. et al. (2014). DATA + DESIGN A simple introduction to

preparing and visualizing information. Donald W. Reynolds Journalism Institute and

Infoactive.

Corchado, J. M., Chamoso, P., Hernández, G., Gutierrez, A. S. R., Camacho, A. R.,

González-Briones, et al. (2021). Deepint. net: A rapid deployment platform for smart

territories. Sensors, 21(1), 236.

Meirelles, I. (2013). Design for Information. Rockport Publishers.

Quispel, A. y Maes, A. (2014). Would you prefer pie or cupcakes? Preferences for

data visualization designs of professionals and laypeople in graphic design. Journal of


Visual Languages & Computing, 25(2), 107-116.

Siemens. (2018). Benefit from the advantages of the digital transformation.

https://www.siemens.com/global/en/home/company/topic-areas/future-of-
manufacturing/digital-enterprise.html

Ware, C. (2013). Information Visualization. Morgan Kaufmann Publishers.

Big Data y Analytics 73


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Diseño de la información y visualización de datos

Villena, M. (2014). Diseño de la información y visualización de datos, necesidades

metodológicas para el diseño gráfico actual. Casiopea.

https://wiki.ead.pucv.cl/Dise%C3%B1o_de_la_informaci%C3%B3n_y_Visualizaci%C
3%B3n_de_datos,_necesidades_metodol%C3%B3gicas_para_el_Dise%C3%B1o_G
r%C3%A1fico_actual.

Ensayo bien sintetizado de Mauro Villena sobre las necesidades metodológicas

relativas al diseño de la información y la visualización de datos para el diseño gráfico

actual, donde se expresa claramente la diferencia entre los conceptos de diseño de

la información y la visualización de datos.

Big Data y Analytics 74


Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

The Data Visualisation Catalogue

The Data Visualisation Catalogue. [Página web]. http://www.datavizcatalogue.com/

Esta herramienta te ayudará a elegir el mejor modo de representación para tus datos.

Explica detalladamente cada tipo de gráfico y una descripción de su anatomía.

Big Data y Analytics 75


Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Herramientas de procesado y visualización de


datos

Gobierno de España. (24 de marzo de 2021) Herramientas de procesado y

visualización de datos. http://datos.gob.es/es/documentacion/herramientas-de-

procesado-y-visualizacionde-datos

Datos.gob (el portal de datos abiertos del Gobierno de España) presenta una

interesante recopilación de las herramientas de procesado y visualización de datos

que podemos encontrar gratuitamente en la actualidad. Puedes descargar el

documento en diferentes formatos.

Big Data y Analytics 76


Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Hans Rosling: The best stats you've ever seen

Rosling, H. (2006). The best stats you've ever seen. [Vídeo]. TED.
http://www.ted.com/talks/hans_rosling_shows_the_best_stats_you_ve_ever_seen/tra

nscript?language=en#t-1173537

Hans Rosling, fundador de Gapminder, realiza una magnífica presentación de datos

estadísticos relacionando, a través de visualizaciones dinámicas, la tasa de fertilidad

y la expectativa de vida al nacer, por ejemplo, para desmontar algunas ideas

preconcebidas sobre el mundo occidental y el tercer mundo.

Big Data y Analytics 77


Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

The beauty of data visualization

McCandless, D. (2010). The beauty of data visualization [Vídeo]. TED.


https://www.ted.com/talks/david_mccandless_the_beauty_of_data_visualization#t-
%20314777

El periodista de datos David McCandless realiza una excelente exposición acerca de

la importancia de la visualización de datos. Presenta algunos conjuntos de datos

complejos por medio de visualizaciones que descubren interesantes patrones y

tendencias.

Big Data y Analytics 78


Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. La infografía y la visualización de datos tienen como objetivo principal:

A. Presentar la información de una manera muy atractiva.

B. Informar y ampliar el conocimiento.

C. Mostrar una información diferente al lector.

D. Buscar y organizar datos.

2. Infografía y visualización de datos:

A. Son dos conceptos totalmente antagónicos.

B. Son dos conceptos con una naturaleza común y que comparten un mismo

objetivo.

C. Son dos conceptos totalmente independientes, aunque comparten un

mismo objetivo.

D. Ninguna es correcta.

3. El proceso básico para crear una visualización consiste en:

A. Investigar, seleccionar los datos, idear un boceto y elaborar la

visualización.

B. Investigar, seleccionar los datos y publicarlos.

C. Investigar, seleccionar los datos de varias fuentes y elaborar la

visualización.

D. Idear un boceto, seleccionar los datos y elaborar la visualización.

4. La información:

A. Es el verdadero poder en sí misma y en términos absolutos.

B. Permite extraer de ella, mediante distintas técnicas, conocimiento, que es

realmente lo valioso.
C. Solo tiene sentido si se puede representar en 3D.

D. Todas las anteriores son correctas.

Big Data y Analytics 79


Tema 7. Test
© Universidad Internacional de La Rioja (UNIR)
Test

5. Para comunicar adecuadamente de forma gráfica nuestra visión sobre un

conjunto de datos, estos se han de mostrar siguiendo:

A. Criterios estratégicos.

B. Criterios económicos.

C. Criterios psicosociales.

D. Todas las anteriores son correctas.

6. Cuando los datos son representados de manera abstracta y sin parecido real con

lo que se representa, hablamos de:

A. Gráficos bonitos.

B. Gráficos no figurativos.

C. Gráficos figurativos.

D. A y B son correctas.

7. El gráfico estadístico más adecuado para realizar comparaciones entre valores

es:

A. El gráfico de barras.

B. El gráfico de línea.

C. El gráfico de tarta.

D. Cualquiera de los tres.

8. Si lo que queremos mostrar es cómo ha evolucionado un valor a lo largo del

tiempo, utilizaremos mejor:

A. Un gráfico de barras.
B. Un gráfico de línea.
C. Un gráfico de tarta.
D. Cualquiera de los tres.

Big Data y Analytics 80


Tema 7. Test
© Universidad Internacional de La Rioja (UNIR)
Test

9. La visualización estática:

A. Representa normalmente información variable y que no requiere de

interacción por parte del lector.

B. Representa normalmente información variable y que requiere de

interacción por parte del lector.

C. Representa normalmente información invariable y que no requiere de

interacción por parte del lector.

D. Representa normalmente información invariable y que requiere de

interacción por parte del lector.

10. La visualización dinámica:

A. Representa normalmente información variable y que no requiere de

interacción por parte del lector.

B. Representa normalmente información variable y que puede requerir

interacción por parte del lector.

C. Representa normalmente información invariable y que no requiere de

interacción por parte del lector.

D. Representa normalmente información invariable y que puede requerir

interacción por parte del lector.

Big Data y Analytics 81


Tema 7. Test
© Universidad Internacional de La Rioja (UNIR)

También podría gustarte