0% encontró este documento útil (0 votos)
53 vistas20 páginas

Máster en Big Data y Analytics INESDI-UNIE

Cargado por

lslemuss
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
53 vistas20 páginas

Máster en Big Data y Analytics INESDI-UNIE

Cargado por

lslemuss
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Máster en Big Data

y Analytics

Guía del programa


2310
Guía del Máster en Big Data y Analytics

1. Carta del Director de Programa

2. El Máster en Big Data y Analytics de INESDI-UNIE.

2.1. Objetivos

2.2. Competencias

2.3. Requisitos de admisión y titulación

2.4. Salidas profesionales

2.5. Plan de estudios

A. Estructura del programa

B. Contenidos

C. Talleres prácticos

D. Herramientas

E. Metodología

F. Modelo de Evaluación

G. Normativa académica

3. Claustro docente
1. Carta del Director de Programa
Estimados alumnos:

Muchas gracias por dedicar unos minutos de vuestro tiempo en conocer, un poco
mejor, el Máster en Big Data y Analytics de INESDI-UNIE del que tengo el honor
de ser Director. Mi nombre es Marc Subirà y soy ingeniero en informática de
gestión con un Máster en Advanced CIO por ESADE. A lo largo de mi trayectoria
profesional he ocupado diferentes posiciones relacionadas con la programación informática en
instituciones como Panrico y distintos cargos directivos en medios de comunicación. Actualmente,
soy responsable de Data y Deporte en el FC Barcelona. Mi dilatada trayectoria profesional me ha
permitido ver la importancia creciente que ha ido adquiriendo, a lo largo de los últimos años, el
análisis de datos en las empresas y en los procesos de toma de decisiones. Toda esta experiencia
me ha guiado en el desarrollo y diseño del Máster en Big Data y Analytics de INESDI-UNIE, cuyo
objetivo es proporcionar los conocimientos necesarios para gestionar un proyecto de Big Data
desde todas sus vertientes, empezando desde cómo identificar la oportunidad en una organización
hasta determinar qué se entrega en las áreas de negocio.

Gestionar proyectos de Big Data es un reto al que cada vez más empresas van a tener que
enfrentarse. El volumen de información generado dentro de la organización, sumado al que se
genera sobre los sectores económico, ambiental y transaccional, entre otros, hace que cada vez
más empresas emprendan el reto de convertirse en organizaciones Data Driven. En la última
década, la cantidad de información generada sobre los negocios, personas o sociedades ha
aumentado considerablemente. Las redes sociales, el IoT, la domótica, los coches conectados, el
5G, etc.: los datos son la base de cada una de las nuevas tecnologías que llegan al mercado.
Paralelamente, la capacidad de proceso y almacenamiento ha reducido sus costes y complejidad,
favoreciendo dicha tendencia.

Hace años, el mercado del Big Data apareció de la mano de las grandes telcos, la banca y la
industria, con dos ideas: incrementar el beneficio o reducir los costes. Aunque esto no es nuevo,
sí que ha implicado la modificación de los procesos. Mientras hace años se dependía del
conocimiento de los directivos de las compañías, ahora podemos encontrar grandes cantidades
de información que nos ayudan a tomar decisiones de manera objetiva. A lo largo del programa,
cubriremos los 10 puntos claves que deben gestionarse en un proyecto Big Data. Aunque no es
objeto del máster convertirnos en unos profesionales técnicos que podamos programar las
soluciones, sí haremos algunas prácticas para dejar la parte teórica y afianzar el conocimiento.

En este máster hemos decidido contar con profesionales de grandes compañías, en las que a
diario se está aplicando el contenido de alguno de los módulos para resolver las necesidades de
negocio. Con ellos aprenderéis de primera mano los retos a tener en cuenta y los PROs y los
CONs de cada uno. En definitiva, no nos quedaremos solo en el plano teórico, sino que nos
acercaremos a los casos prácticos de ejecución en sus compañías. El Máster en Big Data y
Analytics se actualiza cada año con las nuevas tendencias de mercado y tecnología, buscando
ser siempre un referente dentro de este ámbito y formando profesionales capaces de implantar
proyectos de principio a fin en sus organizaciones.

Sin otro particular, os agradezco de nuevo vuestro interés por conocernos un poco mejor. Todo el
equipo de INESDI y del Máster en Big Data y Analytics queda a vuestra disposición para solucionar
o aclarar todas las dudas que tengáis sobre el mismo.

Un cordial saludo,
Marc Subirà Docampo
Director del Máster en Big Data y Analytics
Inesdi, Business Techschool

2. El Máster en Big Data y Analytics


El Máster en Big Data y Analytics, nace de la unión de Inesdi y UNIE. Por un lado, UNIE, la
primera universidad creada desde un grupo empresarial que conecta con la realidad social y
económica contemporánea, con una calidad académica avalada por el Grupo Planeta Formación
y Universidades. Por otro lado, Inesdi Business Techschool, ofrece la experiencia de más de diez
años formando en negocio digital, innovación y tecnología.

La estructura del Máster en Big Data y Analytics de INESDI- UNIE permitirá a los alumnos
identificar cuándo el tipo de soluciones de Big Data puede ayudar a la organización y gobernar su
implantación dentro de la misma. A lo largo del programa, se verán tres grandes bloques:

▪ Bloque I. Gerencia y almacenamiento.


▪ Bloque II. Procesos y análisis.
▪ Bloque III. Visualización y negocio.

Durante el programa se aplicarán los conocimientos sobre soluciones tecnológicas de forma


práctica, ya que el objetivo es acercar al alumno a la tecnología actual existente en el mercado
para poder tocarla y ver su aplicabilidad.

2.1. Objetivos del programa


Con un ecosistema de 1.000 soluciones de Big Data, dentro de un mercado cambiante que no
para de crecer año tras año, es necesario adaptarse continuamente y definir correctamente las
bases de las arquitecturas, pero siempre bajo el paraguas de las expectativas de negocio.

Los grandes volúmenes de datos, la variedad y la velocidad no van a conseguir más que derrochar
recursos de una organización que no tiene claro lo que quiere resolver. Por ello, saber qué espera
obtener una organización (reducción de costes o aumento de ingresos) marcará la viabilidad de
un proyecto de Big Data.
El Máster en Big Data y Analytics de INESDI- UNIE ofrece un enfoque práctico y riguroso
orientado a la implantación de la tecnología Big Data con garantías de éxito.

Objetivo general

El objetivo general del Máster en Big Data y Analytics es proporcionar los conocimientos
necesarios para gestionar un proyecto de Big Data desde todas sus vertientes, empezando desde
cómo detectar la oportunidad en una organización hasta determinar qué se entrega a las áreas de
negocio. Asimismo, se persigue que el profesional responsable pueda reconocer si una
organización se encuentra delante de un reto de Big Data y tener un proceso definido de los pasos
a seguir: identificar la tipología de soluciones que debe adoptar, determinar los perfiles
profesionales que va a necesitar, preparar un plan de viabilidad económica y tener los
fundamentos para manejar su escalabilidad.

Objetivos específicos

El plan de estudios del Máster en Big Data y Analytics está diseñado para alcanzar los siguientes
objetivos específicos:

▪ Entender cómo transformar una organización tradicional, mediante la aplicación del


concepto de análisis de datos o Big Data Analytics, en una data driven organization.
▪ Conocer los principales frameworks tecnológicos del mercado y sus principales
aplicaciones: Hadoop, Spark, Neo4j.
▪ Identificar cuáles son las diferentes tipologías de información, su almacenamiento y
procesos de calidad.
▪ Entender cómo extraer conocimiento de los datos para generar modelos predictivos vía
estadística predictiva y machine learning.
▪ Dominar las técnicas de gobierno de datos: adquisición, almacenado, proceso, análisis,
visualización.
▪ Descubrir las nuevas técnicas de visualización de dashboards para mejorar la toma de
decisiones.

2.2. Competencias
El Máster en Big Data y Analytics de INESDI- UNIE permite al alumno desarrollar las siguientes
competencias:

Competencias transversales

CT1. Capacidad para aplicar los conocimientos a la práctica.


CT2. Capacidad para la toma de decisiones.
CT3. Capacidad para diseñar y gestionar proyectos.
CT4. Capacidad de análisis y síntesis.
Competencias específicas

CE1. Diferenciar los ejes que determinan un proyecto de Big Data para facilitar su
identificación en el contexto empresarial actual.
CE2. Diferenciar el framework Spark y el ecosistema HivE, Pig, Sqoop y FLume para
aplicarlos en la gestión de los datos en la empresa.
CE3. Interpretar los KPIs clave para la óptima gestión de los datos empresariales.
CE4. Describir las bases de datos columnares, grafos y documentales, así como las bases
externas para aplicarlas en empresas reales y enriquecer el Data Lake.
CE5. Seleccionar el conjunto de datos adecuado para resolver la pregunta de negocio para
obtener los resultados deseados.
CE6. Distinguir el proceso de control estadístico de la calidad de los datos para obtener
resultados coherentes e interpretables en el entorno organizacional real.
CE7. Distinguir los principales softwares de código abierto y comercial para usarlos en el
proceso de análisis de datos empresariales.

2.3. Requisitos de admisión y titulación

Perfil de los estudiantes y requisitos de admisión

Los módulos del programa están pensados para profesionales de cualquier sector que quieran
implantar un proyecto de Big Data en su empresa, identificar qué tipos de proyectos son de esta
tipología y definir el mejor roadmap para el proyecto con el fin de resolverlo de forma exitosa.

Los perfiles de procedencia son:

▪ Graduados en ingenierías técnicas, ADE y ciencias (Matemáticas, Física, Estadística o


Química)1.
▪ Profesionales que estén trabajando en el sector TIC.
▪ Cargos intermedios que quieran tener una posición ventajosa ante futuras oportunidades
en su empresa.
▪ Profesionales del sector BI (Business Intelligence) tradicional que quieran ampliar su
conocimiento.
▪ Perfiles técnicos/consultores que actualmente trabajen con datos y que quieran tener una
visión de management end-to-end.

1
La estructura y contenidos del programa están pensados para estudiantes con background formativo vinculado a ingenierías
técnicas. Para los graduados de ADE o ciencias (matemáticas, física o química) es necesario tener una experiencia formativa o laboral
mínima relacionada con tecnología.
Titulación

El Máster en Big Data y Analytics nace de la unión de INESDI-UNIE.

Por un lado, Inesdi es una Techschool que ofrece programas formativos enmarcados dentro de
las áreas de innovación y tecnología, con especial foco en el impacto de ambas en los negocios.
Aparte de la constante actualización de los contenidos, según las nuevas tendencias en el entorno,
así como del uso de tecnologías aplicadas en el marco de los diferentes programas, Inesdi cuenta
con un claustro docente que destaca por su amplia y contrastada experiencia en las áreas en las
que imparten sus módulos.

Por otro lado, UNIE, es la primera universidad creada por un grupo empresarial, que entiende el
valor de las personas competentes, motivadas y formadas. UNIE conecta con la realidad social y
económica contemporánea.
Por todo ello, una vez finalizado el programa, los estudiantes obtendrán:
▪ Un título propio de Inesdi Business Techschool
▪ Un título propio de Máster en Formación Permanente acreditado por la UNIE, si se
cumplen los requisitos de la Universidad al finalizar el programa.

2.4. Salidas profesionales

En INESDI apostamos por la formación como motor de cambio, de crecimiento y de mejora tanto
personal como profesional. La aplicación de las competencias desarrolladas a lo largo del máster
en el ámbito profesional contribuirá al crecimiento y mejora de las organizaciones de la mano de
los valores fundamentales de la escuela.

La transformación digital de las empresas es una realidad y esto implica cambios en las diferentes
áreas funcionales de las mismas. Es por este motivo que los profesionales deben estar preparados
para poder hacer uso de las nuevas herramientas que proporciona el nuevo entorno tecnológico.

Las salidas profesionales se agrupan en:

▪ Responsable de proyectos Big Data y analítica avanzada de negocio.


▪ Jefes de Proyecto de Datos
▪ Comerciales de Soluciones de Datos.
▪ Chief Data Officer.
▪ Especialistas de gestión de datos.
2.5.Plan de estudios
El plan de estudios se divide en un bootcamp y 10 módulos obligatorios, 3 talleres voluntarios y un
Proyecto Final de Máster que se iniciará a finales del primer módulo y que se extenderá durante
todo el programa.

Los diferentes módulos, de un mes de duración, se estructuran en semanas donde el alumno tiene
una serie de metas e hitos a cumplir y un proyecto donde poner en práctica los conocimientos que
adquiere con la guía y supervisión de un mentor.

Estos retos o metas se focalizan en el trabajo colaborativo, en los materiales del módulo y en el
uso de herramientas tecnológicas.

A. Estructura del programa

Los módulos que integran el Máster en Big Data y Analytics se agrupan en tres bloques:

BLOQUE 1. Gerencia y almacenamiento

Introduciremos los conceptos claves de Big Data, así como sus principales tecnologías. Además,
se identificará cuándo nos encontramos delante de un proyecto de Big Data, señalando posibles
problemas legales; se determinará el mejor entorno en el que implantarlo; y se explorarán las
tipologías de base de datos que podemos usar en función de los datos.

BLOQUE 2. Proceso y análisis

Aprenderemos a explotar los datos para convertirlos en información. Descubriremos las diferentes
técnicas y soluciones de mercado para, finalmente, ser capaces de generar indicadores que el
área de negocio pueda interpretar.

BLOQUE 3. Visualización y negocio

Veremos que, cuantos más datos tengamos, más indicadores se acabarán generando. Unos
correctos gobiernos, securización y explotación conseguirán que toda la organización confíe en
los KPIs para tomar decisiones ventajosas.

En la siguiente tabla se detallan los módulos que integran el Plan de Estudios del Máster en Big
Data y Analytics:

Módulo/ asignatura ECTS


BLOQUE I. Gerencia y almacenamiento
Bootcamp tecnológico 2.5
Gerencia del Big Data y Analytics 2.5
Arquitectura Big Data 5
Integración de datos (ETLs, ELTs…) 5
Repositorios analíticos y operacionales. SQL y NoSQL 5
BLOQUE II. Procesos y análisis
Data Mining - Estadística básica y preprocesado de datos 5
Advanced analytics: R 5
Machine Learning 5
BLOQUE III. Visualización y negocio
Data Governance 5
Técnicas de visualización 5
Herramientas de data visualization y autoservicio 5
Proyecto Final de Máster
Proyecto Final de Máster 10
Talleres
Neo4j - Amazon
Watson - QSense
Preparación para las certificaciones CAP/Acap

B. Contenidos

La estructura y duración del Máster en Big Data y Analytics de INESDI - UNIE nos permite
asegurar la consecución de los objetivos anteriormente detallados, así como adquirir las
competencias especificadas. A continuación, se explica en detalle cada uno de los módulos de los
que consta el programa.

BLOQUE I. Gerencia y almacenamiento

Bootcamp tecnológico

Los estudiantes inician el programa de Big Data y Analytics con este bootcamp que provee de las
bases de conocimiento técnicas necesarias para cursar el programa y para llevar cabo proyectos
de Big Data. En este curso, los estudiantes encontrarán recursos materiales que les permitirán
profundizar en diferentes temas necesarios para el seguimiento del máster y realizarán actividades
que les servirán como guía para la evaluación de sus conocimientos y la evaluación final del curso.

Módulo 1. Gerencia del Big Data y Analytics

En este módulo introduciremos los conceptos fundamentales del Big Data para saber identificar
las claves de cada proyecto y escalabilidad. Descubrir la variabilidad de los datos, la volumetría y
la velocidad nos servirá para identificar qué fases se deben llevar a cabo antes de arrancar un
proyecto de Big Data y, lo más importante, qué retorno esperamos del proyecto y qué expectativas
tiene el negocio.
Objetivos:
▪ Identificar cuándo un proyecto es Big Data.
▪ Encontrar el ROI en un proyecto de Big Data.
▪ Entender y aplicar los conceptos de Dark Data y Open Data.
▪ Orientar la organización para que sea una Data Driven organization y respalde el
proyecto.
▪ Conocer la legalidad de los datos.
▪ Definir la figura del Data Science dentro de una organización.
▪ Examinar casos de éxito y fracasos en la industria en el mundo de Big Data.
▪ Comprender la organización interna del área del CDO.

Módulo 2. Arquitectura Big Data

El ecosistema de soluciones Big Data será tan grande como tipologías de datos y capacidad de
proceso necesitemos en el proyecto. La mayoría de ellas se centran en la escalabilidad y la
diversidad, y están basadas, principalmente, en entornos Cloud. Algunas compañías no quieren
subir sus datos más críticos en la nube y prefieren tenerlos in house; otras prefieren entornos
100% Cloud o modelos híbridos.

En este módulo descubriremos los pros y los contras de cada arquitectura, los principales
proveedores de soluciones y las estrategias para construir entornos lo más elásticos posibles,
buscando siempre la arquitectura más eficaz en soluciones y coste.
Objetivos:
• Estudiar los conceptos fundamentales de Arquitectura de referencia de Big Data.
• Analizar las características de las arquitecturas de proceso de Big Data (Lambda y Kappa).
• Comprender las Arquitecturas de Computación (Velocidad).
• Entender cómo funciona un Hadoop.
• Examinar la evolución de los motores de proceso de Big Data.
• Aprender las Arquitecturas de Almacenamiento (Volumen) para Big Data: Réplicas,
Particionado, Rendimiento y Disponibilidad.
• Examinar ejemplos de arquitecturas de almacenamiento de Big Data. Data Lake y
DataWarehouse.
• Familiarizarse con la gestión de una Arquitectura de Big Data.
• Analizar las conexiones entre cloud y Big Data. Servicios de datos en Cloud Públicos,
Snowflake y DataBricks.

Módulo 3. Integración de datos (ETLs, ELTs…)

La información la podemos obtener tanto de fuentes externas a la organización (redes sociales,


open data, entre otras) como de bases de datos internas (CRMs, ERPs, transaccionales, etc.).
Todos estos datos deberán ser transformados, antes o después de leerlos, para posteriormente
tratarlos mediante procesos de agregación que nos permitan obtener KPIs. En este momento,
deberemos definir reglas de calidad para verificar que los datos son correctos y no empobrecen
nuestro Data Lake.
En este módulo aprenderemos a definir las bases que deben tener todo proceso de carga de datos
para garantizar una integridad, sanitización, historificación y recursividad en las cargas.
Objetivos:
• Comprender los retos de los datos en los procesos de integración de datos.
• Estudiar la Integración de Datos – Procesos ETL y ELT.
• Aprender a usar técnicas avanzadas de integración de datos con Machine Learning.
• Analizar Data Quality y métricas en los procesos de integración de datos.
• Examinar el uso del Data Lineage en los procesos de integración de datos.
• Aproximarse al Master Data Management. La factoría de Datos.
• Entender los beneficios de Open Data, para enriquecer nuestros datos con datos externos.
• Familiarizarse con las herramientas de Integración de Datos y Cloud.

Módulo 4. Repositorios analíticos y operacionales. SQL y NoSQL

Registrar grandes cantidades de información requiere de diferentes tipologías de base de datos,


más allá de las relacionales con un enfoque más tradicional. Así, por ejemplo, el vídeo, las rutas
o caminos críticos, los documentos o las redes sociales son fuentes de datos cada vez más
habituales entre las fuentes de información que interesan a un negocio.

El mercado tecnológico se ha adaptado a todas ellas y ha creado soluciones para poder


almacenarlas y explotarlas de forma óptima. En este módulo descubriremos sus ventajas e
inconvenientes y realizaremos pequeñas prácticas sobre cada una de ellas para explorar su
potencial.
Objetivos:
▪ Entender los retos de las bases de datos relacionales en Big Data.
▪ Comprender la necesidad de escalar. La consistencia BASE vs ACID.
▪ Aprender a usar las bases de datos NoSQL.
▪ Aproximarse a Deep Dive MongoDB y aprender a crear un DataLake con MongoDB.
▪ Analizar las bases de datos NewSQL.
▪ Examinar las bases de datos en streaming. Proceso en tiempo real.
▪ Saber cómo montar un DataLake en Cloud.

BLOQUE II. Procesos y análisis

Módulo 5. Data Mining - Estadística básica y preprocesado de datos

En este módulo aprenderemos a extraer información del conjunto de datos del Data Lake y, sobre
todo, a convertirla en interpretable. En todo el proceso, deberemos tener claros los objetivos de
negocio, las herramientas que nos ayudarán a analizar los datos, a determinar qué modelos
matemáticos son mejores y a cualificar los resultados.
Objetivos:
▪ Seleccionar el conjunto de datos que mejor puede resolver la pregunta de negocio, de
entre los datos disponibles.
▪ Transformar el conjunto de datos de entrada.
▪ Seleccionar la técnica de minería de datos más adecuada (redes neuronales, árboles
de decisión, clustering, reglas de asociación, etc.).
▪ Entender el proceso de extracción de conocimiento.
▪ Interpretar y evaluar los datos.

Módulo 6. Advanced analytics: R

Una vez dispongamos de unos datos correctos habrá llegado el momento de interpretarlos, extraer
el conocimiento y llevar el conocimiento a un nuevo nivel. En este módulo, sentaremos una
pequeña base estadística para poder trabajar con una de las principales herramientas de
Advanced Analytics del mercado: R. Con ella se realizarán pequeñas prácticas para extraer el
máximo potencial de los datos.
Objetivos:
▪ Conocer las bases de la estadística y del cálculo de probabilidades.
▪ Aplicar el análisis multivariante de datos.
▪ Entender y aplicar las series temporales.
▪ Entender el proceso de control estadístico de la calidad de los datos.
▪ Calcular correlaciones y patrones.
▪ Conocer el proceso de clusterización de los datos.

Módulo 7. Machine Learning

En los módulos anteriores se ve cómo interpretar los datos existentes, cómo extraer conocimiento
de todo lo que nos ha sucedido. En este módulo nos acercaremos al Machine Learning para ver
cómo, con buena información, podemos acercarnos a los predictivos. Descubriremos las
principales técnicas y herramientas de mercado, qué tipología y volumen de información es
necesaria y realizaremos pequeños módulos prácticos para ver su aplicabilidad.
Objetivos:
▪ Entender la diferencia entre aprendizaje supervisado y aprendizaje no supervisado.
▪ Conocer las diferentes técnicas de clasificación, de los árboles de decisiones a las
técnicas bayesianas.
▪ Entender el concepto de aprendizaje automático.
▪ Identificar los principales softwares de código abierto y comercial.
BLOQUE III. Visualización y negocio

Módulo 8. Data Governance

Una vez tenemos toda la información, debemos definir las reglas de uso: quién puede ver los
datos, la definición de cada dato, linaje y dotar a los usuarios de las herramientas para poder
interpretarlos.

El gobierno del dato es donde muchas empresas fracasan: tener dos valores diferentes para un
mismo KPI o predictivo, por ejemplo, provoca desconfianza entre las diferentes áreas de negocio.

En este módulo, aprenderemos las técnicas de gobierno de la información para mantener la


integridad, seguridad y trazabilidad, así como para garantizar que los datos ayuden a la toma de
decisiones seguras sin generar desconfianza.
Objetivos:
▪ Entender qué es la accesibilidad de los datos.
▪ Gestionar los datos como un activo.
▪ Asegurar la integridad.
▪ Definir los principales KPIs y trazabilidad de los datos.
▪ Entender el concepto de securización.

Módulo 9. Técnicas de visualización

En este módulo descubriremos cuáles son las diferentes técnicas de visualización de datos y
cuándo utilizar cada una de ellas. Los grandes volúmenes de datos necesitan de nuevas
representaciones gráficas para poder interpretarlos: mapas de calor, clústeres, dimensionales,
caminos críticos, entre otros.

Además de los gráficos, es importante asociar la valoración a cada uno de ellos y generar una
interpretación. Los indicadores pueden confundir y dificultar la toma de decisiones, orientarlos,
ponerlos en contexto y subjetivarlos ayudará a una mejor interpretación.

Objetivos:
▪ Descubrir las tipologías disponibles de gráficos.
▪ Conocer los casos de uso y sus principales representaciones gráficas.
▪ Entender el proceso vinculado al paso de los gráficos al Storytelling de negocio.
▪ Saber simplificar y agregar datos para Dashboards de dirección.
Módulo 10. Herramientas de data visualization y autoservicio

Finalmente, como el ecosistema de herramientas de visualización es complejo, será importante


escoger el más adecuado para cada tipo de organización. Habrá que tener en cuenta que en una
organización se busca simplificar la tecnología y deberemos buscar una solución para toda la
organización. Solo entonces podremos garantizar fácilmente la seguridad, accesibilidad y
disponibilidad de los mismos KPIs.
El autoservicio es una pieza clave en organizaciones grandes con delegaciones, sucursales, etc.
Permite descentralizar la información y convertir cada nodo de la organización en autónomo.

En este módulo descubriremos las principales herramientas de data visualization y autoservicio.


Objetivos:
▪ Identificar las principales herramientas de mercado: Qlikview/sense, Tableau, PowerBI,
Cognos.
▪ Conocer los puntos fuertes y puntos débiles de cada una ellas.
▪ Realizar un caso práctico con Qliksense y el autoservicio de datos.

PROYECTO FINAL DE MÁSTER

Los proyectos finales de máster podrán adoptar dos enfoques, Business y/o Tecnológico, y dentro
de estos enfoques podrán adoptar múltiples formas. Algunos ejemplos son:

Enfoque 1. Business

1. Ejemplo 1. Desarrollo del Business Plan incluyendo equipo, infraestructura y


entregables a negocio en un caso teórico empresarial con diferentes tipologías de
datos.
2. Ejemplo 2. Proyecto de consultoría de negocio de un caso real empresarial.

Enfoque 2. Tecnológico

3. Ejemplo 1. Desarrollo de los Dashboards de negocio con una herramienta de mercado


con diferentes tipologías de datos y definición de indicadores.

C. Talleres

En el Máster en Big Data y Analytics el estudiante tendrá la oportunidad de realizar 3 talleres


prácticos. Estos talleres son:
Taller 1. Neo4j-Amazon

En este taller los estudiantes trabajarán con las aplicaciones Neo4j, y Amazon, a través de la
realización de diferentes ejercicios prácticos, que les permitirán obtener una visión real de las
aplicaciones que tienen ambas en el ámbito del Big Data y el Data Analytics.

Taller 2. Watson-Qsense

Las soluciones para montar un entorno de Inteligencia Artificial/Machine Learning pueden pasar
por diferentes productos Open Souce interconectados, o bien por una solución que agregue los
principales productos de mercado y nos garanticen la interoperabilidad entre versiones, upgrades
automáticos y contratación como servicio. Estas son las principales ventajas de Watson y, en este
taller, meramente práctico, descubriremos cómo aprovisionar un entorno para nuestros Data
Science en los que podamos gobernar las soluciones y el coste.

Taller 3. Preparación para la certificación CAP/ aCAP

Durante dos semanas, los estudiantes desarrollarán un seminario donde se les proporcionará toda
la información referente a las certificaciones CAP (para estudiantes con más de 3 años de
experiencia profesional en Big Data y Analytics) o aCAP (para estudiantes con menos de 3 años
de experiencia profesional en Big Data y Analytics). A los estudiantes se les facilitará el material
adicional necesario para preparar estas certificaciones. El taller se dividirá en tres bloques: 1.
Introducción a los conceptos clave; 2. Preparación para el examen; 3. Consejos finales para la
realización del examen.

El coste de la certificación NO está incluido en el precio del programa. No obstante, los estudiantes
tienen un descuento sobre las tasas del examen.

D. Herramientas

Durante todo el curso nos acercaremos a las principales soluciones de mercado en cada una de
las capas que componen una solución de Big Data: los principales partners de soluciones (IBM,
Amazon, Google Cloud, Azure), Bases de datos (Neo4J, HDFS, Cassandra, MongoDB), ETLs
(Kafka, Pentaho, Powercenter), presentación (Tableau, Qlik), entre otras.

El máster no busca formar tecnológicamente a sus alumnos en cada una de estas herramientas,
sino acercarse desde un punto de vista teórico, ver los pros y los contras de cada una de ellas y
realizar pequeñas prácticas para comprender de primera mano su funcionamiento.

E. Metodología

En Inesdi Business Techschool orientamos nuestra metodología al desarrollo de competencias,


conocimientos y habilidades. Promovemos la comunicación flexible e inmediata, incentivamos
la discusión efectiva, fomentamos el trabajo en equipo y facilitamos la interacción entre todos
los participantes, sean alumnos, profesores o profesionales invitados.

Nuestra metodología se fundamenta en la combinación de aprendizaje práctico y teórico,


exigiendo la participación activa de los alumnos con sus opiniones y puntos de vista. Los
participantes, además de trabajar la documentación que se les entrega, deben analizar y
resolver casos prácticos que están basados en situaciones empresariales reales y simuladas.

Así, utilizando los documentos de referencia, casos de estudio y simulaciones que te ofrecemos
a diario, se genera una experiencia rica de aprendizaje, conectada a la realidad. Estudiar en
Inesdi Business Techschool supone estar al día en todo lo relacionado con tu área de interés,
sobre todo en los contenidos prácticos que el equipo docente te irá suministrando día a día.

Nuestros alumnos profundizan en las últimas tendencias relacionadas con su área de trabajo,
formando parte de conversaciones dirigidas por profesionales en activo que seleccionan las
fuentes, reflexionan con nosotros y finalmente las llevan a la práctica.

La dinámica de aprendizaje del curso incluye:

Videoconferencias
Son clases magistrales que imparte el docente sobre un tema particular o con un propósito
específico, como puede ser la resolución de dudas.

Crean una vinculación entre profesor y alumno y permiten acompañar al estudiante en su


proceso de aprendizaje. El alumno puede seguir la videoconferencia de manera síncrona y así
interactuar con el docente en la aclaración de dudas.

Debates
Son una actividad interactiva en la que los estudiantes discuten en un foro sobre un tema o caso
propuesto por el docente. El objetivo es potenciar la visión y el pensamiento crítico del alumno
sobre un tema particular.

Ejercicios
Suelen ser preguntas referentes a un tema o texto propuestos y sirven para evaluar la trayectoria
del alumno de forma continua. Pueden ser individuales o grupales.

Resolución de casos
Son una herramienta de evaluación que permite que el alumno tome decisiones en relación a
una temática concreta. Se suelen plantear en grupo para fomentar la discusión entre los
participantes.
F. Modelo de evaluación

El modelo de evaluación tiene como ejes clave:

• Contribuir a un seguimiento constante del programa.


• Asegurar el aprendizaje, el uso de los conceptos y procedimientos presentados.
• Valorar el grado de consecución de los objetivos del programa que deberán traducirse en
habilidades y competencias profesionales.
La calificación final obtenida por cada alumno en el programa se calcula del siguiente modo:

•80% Evaluación Continua: media de las distintas asignaturas que lo constituyen, siendo
condición indispensable aprobar todas las asignaturas. El alumno puede suspender hasta
3 módulos, teniéndolos que recuperar al finalizar el máster. La nota mínima que se debe
obtener para superar un módulo es un 5.
• 20% Trabajo Final de Máster: es imprescindible para la obtención del título aprobar el
proyecto final.
La Evaluación Continua se realiza de forma constante a lo largo de todo el programa, existiendo
para cada una de las asignaturas una serie de actividades que el alumno deberá́ realizar y que
serán evaluadas por el profesor, quien informará al alumno de la calificación obtenida en cada
una de ellas, así como de los aspectos a mejorar en caso necesario.

Si se suspende uno, dos o tres módulos, el alumno tendrá la posibilidad de acceder a una
actividad de recuperación que le permitirá demostrar que ha adquirido todos los conocimientos
impartidos en el módulo. Si el resultado de esta actividad es positivo, el módulo quedará
aprobado.
Si se suspenden más de tres módulos, el alumno no tendrá la posibilidad de acceder al periodo
de recuperaciones y tendrá que volver a matricularse de las asignaturas suspensas en la
siguiente convocatoria del programa.

G. Normativa académica

Política de actividades entregadas fuera de plazo

El planning explicita las actividades de evaluación y las fechas en que se deben realizar las
entregas. Es tan importante la participación como la realización de las actividades en la fecha
fijada. En general, no se admiten solicitudes de demora de entrega de las actividades, a menos
que:

▪ La justificación de la demora tenga la importancia suficiente para ser considerada por el


profesor. Pueden ser motivos tanto personales como profesionales, pero nunca se
aceptarán demoras por asuntos relacionados con vacaciones.
▪ Se entregue la actividad dentro de la nueva fecha especificada por parte del profesor.
▪ Se envíe un mensaje al correo electrónico del profesor solicitando la aceptación de la
demora al menos 5 días ANTES de la fecha de entrega de la actividad.
▪ Se aplicará una penalización del 20% de la nota de estas actividades entregadas fuera del
plazo.
▪ Las actividades que sean entregadas sin cumplir los requisitos anteriores no se evaluarán
ni tampoco se realizará ningún comentario sobre la calidad del contenido de las mismas.

Solo se aceptarán excepciones a las normas anteriores por motivos graves de carácter personal,
como por ejemplo problemas de salud acreditados mediante el correspondiente certificado médico.

Política de honestidad académica

Una escuela de negocios es una comunidad de personas que se agrupan voluntariamente con el
propósito de aprender. En el corazón de este sentido de comunidad académica está la idea de
que el comportamiento de sus miembros se guía por un compromiso compartido con los más altos
estándares de integridad académica. Cualquier forma de hacer trampa, plagio o ayudar a otros en
actos de deshonestidad es una violación de tales normas. Como estudiante en este programa,
usted se compromete a no recibir ni dar asistencia no autorizada durante la realización de todo su
trabajo en este programa. El plagio consiste en la presentación deliberada, oral o escrita, de
palabras, hechos o ideas que pertenecen a otra fuente sin el reconocimiento adecuado.

INESDI percibe la deshonestidad académica como una de las ofensas más serias que un
estudiante puede cometer e impondrá las sancionas punitivas adecuadas a los infractores.

3. Claustro docente
El profesorado de INESDI te asegura una experiencia de aprendizaje que combina los
conocimientos empresariales reales con el rigor académico.

Todos los profesores del Máster en Big Data y Analytics son profesionales en activo en
destacadas empresas e instituciones nacionales e internacionales, con una amplia trayectoria
tanto en la empresa como en la actividad formativa.

La contrastada experiencia de nuestros directores en el diseño de los programas y la tutela


personalizada de nuestros profesores a lo largo del curso son la garantía que da a esta doble
titulación el valor práctico e innovador que se requiere para ser un profesional destacado en el
ámbito del Big Data.

Director del programa

Marc Subirà (FC Barcelona)


▪ Responsable de DATA y Deporte en FC Barcelona.
▪ Máster Advanced CIO en ESADE.
▪ Ingeniero en Informática de gestión.
▪ CEO de dos medios digitales de comunicación.

Claustro docente

Franscesc Taxonera
▪ Arquitecto de clientes Sistemas y General Business en IBM.
▪ Ingeniero Superior de Telecomunicaciones (UPC).
▪ Máster Internacional en Administración de Empresas (La Salle).
▪ Máster Certified Architect (The Open Group).

Fernando López Bello


▪ Manager de plataforma de Aprendizaje en Nestle.
▪ Asesor de Big Data para Quanam.
▪ Coordinador académico de entrenamiento en Big Data en la Comisión de Integración
Energética Regional.
▪ Ingeniero en Sistemas tecnológicos por la Universidad de la República.
▪ Especialización en Big Data por la Universidad de California, San Diego.

Elena Cordero Fuertes


▪ Posgrado en Data Science y Big Data por la Universitat de Barcelona
▪ Licenciatura de Física por la Universitat de Barcelona
▪ Consultora en Irium para FC Barcelona

Ernesto Lores
▪ Responsable de proyectos en Aquiles Solutions.
▪ Licenciado en Matemáticas por la UB.
▪ Máster en Ingeniería de Software por la UPC.
▪ Ingeniero en Informática de sistemas por la UNED.

Jordi Cahue
▪ Arquitecto IT Senior en IBM.
▪ Miembro de la Academia de Tecnología de IBM.
▪ Ingeniero en Sistemas de Información por la Universitat Politécnica de Catalunya.
▪ Curso en Machine Learning por Standford University.

Albert Fernández Bladé


▪ Consultor de Business Intelligence en Abast.
▪ Ingeniero Industrial por la Universitat Politécnica de Catalunya.
▪ Certificación de Data Architect, Designer y Developer por Qlik.

Raquel Jorge Hernando


▪ Controlador de Modelo Analítico en Climbea.
▪ Licenciada en Psicología de los Recursos Humanos por la Universidad Complutense de
Madrid.
▪ Máster en Recursos Humanos por EAE.
▪ Máster en Big Data Science, Analytics y Business Intelligence por MBIT School.
Cristina Campeny

▪ Chief Data Officer en Frit Ravich.


▪ Licenciada en Administración y Dirección de Empresas por la UDG.
▪ Diploma ejecutivo en Big Data Analytics de Esade.

También podría gustarte