ACERCA DE ITCERTIFICATE
MEJORANDO VIDAS MEDIANTE EL APRENDIZAJE
• ITCertificate es un proveedor global líder en programas de certificación y evaluaciones de habilidades profesionales
para el sector de las tecnologías de la información.
• ITCertificate permite a los profesionales alcanzar su máximo potencial con programas de acreditación de alta
calidad que se han establecido internacionalmente.
• ITCertificate Education controla el desarrollo de múltiples programas educativos y certificaciones internacionales.
Los equipos de desarrollo de cursos trabajan en estrecha colaboración con expertos profesionales en la materia y
expertos académicos para crear cursos superiores diseñados para la capacitación progresiva en TI y para la
preparación de los exámenes correspondientes necesarios para obtener las certificaciones.
• Los expertos académicos son un grupo selecto de TI que pasan por un extenso conjunto de revisiones, pruebas,
capacitación y entrevistas por pares antes de ser aceptados.
• Todos los capacitadores a capacitadores hacen más que enseñar, dedican tiempo a la consultoría para que aporten
experiencia a su enseñanza y comprendan cómo enfrentarse con situaciones del mundo real.
RECURSOS USADOS DURANTE EL
CURSO
Ejercicios Cuestionarios
Videos
Simulador
Plantillas
web
descargables
RESUMEN DEL CURSO
• Ofrecer al estudiante una aproximación al curso de Data Analytics,
en el cual se aprendan los conocimientos necesarios en el análisis y
gestión de datos para su comprensión, así como las herramientas y
estrategias que le permitan entender y rentabilizar el uso de los
Datos aplicando de una manera correcta el DATA ANALYTICS.
• Comprender las perspectivas a nivel económico y tecnológico en
soluciones de DATA ANALYTICS.
• Adquirir conocimientos sobre las diferentes soluciones de análisis
para obtener beneficios en cualquier entorno empresarial.
CONTENIDO
• Completitud.
• Fiabilidad.
• Accesibilidad.
Resumen del curso • Consistencia.
• Smart Data.
1. Contenido Data Analitics.
• Documentación de datos.
• Recursos usados durante el curso.
• Documentos de datos – niveles a considerar.
• ¿Qué es el Data Analitics?.
3. Preparación y prospección de datos.
• Introducción a la ciencia de datos
• Preparación de datos.
• Generar conocimiento.
• Recolección de datos.
• El camino de la ciencia de datos.
• Data Cleansing – Web Scrapping.
2. Calidad de datos.
• Normalización.
• Indicadores de calidad.
• Etl-Ingesta e incorporación de información.
• Data Quality.
• Missing Values.
• Data Quality-dimensiones.
• Data Integración.
• Actualización.
• Data Reduction.
• Selección de Instancias.
• Discretización (clustering de información).
• Prospección.
• Buscar relaciones entre los datos.
• Aproximación a los datos.
CONTENIDO
4. Indicadores. 6. El dato geográfico.
• Estadística Descriptiva. • Generación del dato geográfico.
• Población Estadística. • Relaciones especiales.
• Muestras Estadísticas. • Operaciones Básicas sobre Qgis.
• Variables. 7. Exposición y Comunicación.
• Medidas. • Presentaciones efectivas.
• Indicadores. • Comunicación de resultados.
• Diagramas. • Storytelling.
5. Visualización de datos.
• Plataformas.
• Gráficos.
CONTENIDO DATA ANALYTICS
Introducción la ciencia de
datos. Preparación de datos, recolección de datos.
1.
Generar conocimiento.
INTRODUCCIÓN Data Cleansing, Web Scrapping.
El camino de la ciencia de
Normalización.
los datos.
ETL – Ingesta e incorporación de información.
Indicadores de calidad Missing Values.
Data Quality 3. PREPARACIÓN Y Data Integration.
PROSPECCIÓN DE
El camino de la ciencia de Data Reduction.
DATOS
los datos Selección de Atributos.
2. CALIDAD DE Discretización (clustering de información).
Actualización, Completitud,
DATOS
fiabilidad, accesibilidad,
consistencia, Smart Data. Prospección.
Identificar interrupciones.
Buscar relaciones entre los datos.
Documentación de datos.
Aproximación a los datos.
CONTENIDO DATA ANALYTICS
Estadística Descriptiva.
Presentaciones.
5. Plataformas.
Población Estadística. VISUALIZACIÓN
DE DATOS Explotación.
Muestras Estadísticas. Gráficos.
4.
INDICADORES Variables.
Diferencias con el dato alfanumérico
tradicional.
Medidas.
6. EL DATO Generación del dato geográfico.
GEOGRAFICO
Indicadores. Relaciones espaciales.
Operaciones básicas sobre QGIS.
Indicadores.
Presentaciones Efectivas.
7. EXPOSICIÓN Y
Comunicación de resultados.
COMUNICACIÓN
Storytelling.
¿QUÉ ES DATA ANALYTICS?
• El Data Analytics es un proceso que consiste en agrupar, limpiar
y transformar datos, evaluar tendencias y hacer comparaciones
entre tendencias.
¿Qué nos permite el Data Analytics?
• Es el mejor aliado para lograr los objetivos de las organizaciones.
• Al tener información confiable, esta nos permite tomar decisiones
acertadas.
• Diseñar estrategias.
• Aumentar ingresos.
• Mejorar la productividad.
INTRODUCCIÓN A LA CIENCIA DE DATOS
• Recolección.
• Análisis.
• Interpretación.
• Presentación.
• Organización de datos.
• Modelos de probabilidad.
• Ingeniería de datos.
• Reconocimiento de patrones.
• Modelación de datos.
• El enfoque de la ciencia de datos es global, partiendo del análisis de grandes volúmenes de datos, los
cuales nos permiten extraer conocimiento que aporte valor a todo tipo de organizaciones.
• Se trata del estudio para la extracción generalizada de conocimiento a partir de la información suministrada
por los datos.
GENERAR CONOCIMIENTO
Para crear conocimiento es necesarios tener el entendimiento de la naturaleza del conocimiento.
1. Conocimiento Individual: Es propiedad del individuo que se puede aplicar a diferentes tareas.
2. Conocimiento Colectivo: Conocimiento acumulado por la organización.
El conocimiento es creado únicamente por individuos, las
organizaciones no podrán crear este activo sin individuos.
Funciones Primordiales:
1. Generar nuevo conocimiento.
2. Difundirlo por toda la organización.
3. Incorporar lo aprendido con las nuevas tecnologías.
EL CAMINO DE LA CIENCIA DE DATOS
En los últimos años, el interés en la ciencia de datos va en aumento, el análisis de
grandes volúmenes de datos se está convirtiendo en una habilidad bastante
demandada en todos los sectores de las organizaciones.
• Datos: cantidad de hechos que nos dan Diagrama de Venn Pilares 1:
información. 1. Cálculo.
• Información: Conjunto de datos organizados y con 2. Álgebra.
una estructura, que al presentarlos permitan 3. Estadística.
tomar decisiones. 4. Probabilidad.
• Conocimiento: este se forma a partir de la
información que tenemos.
Pilar 3:
La ciencia de datos permite transformar los datos 1. Medicina.
en información y esta información hace parte de Pilar 2: 2. Finanzas.
conocimiento. 1. Programación. 3. Ventas.
2. Bases de datos. 4. Educación.
3. Inteligencia artificial.
EL CAMINO DE LA CIENCIA DE DATOS
Exploración y análisis cuantitativo de datos estructurados y
no estructurados para extraer conocimiento y generar
acciones.
LA CIENCIA DE DATOS DEPENDE DE:
1. Datos con lo que se va a trabajar.
2. Modelo de análisis.
3. Contexto en el que se ponga la información.
EL CAMINO DE LA CIENCIA DE DATOS
Pregunta Ingeniería Comunicación
Modelamiento
de negocio de datos de resultados
INGENIERÍA DE DATOS
Adquisición Entendimiento Transformación
2.CALIDAD DE DATOS
INDICADORES DE CALIDAD
¿QUÉ ES UN INDICADOR DE CALIDAD?
Un indicador de calidad es un instrumento de medición enfocado a los procesos de una organización,
con los cuales se busca evaluar:
• Desempeño.
• Logro de los objetivos.
• Calidad de sus objetivos.
¿PARA QUÉ SIRVEN?:
1. Analizar el presente de un proceso.
2. Establecer objetivos.
3. Elaborar estrategias.
4. Planes de mejora.
5. Gestión de recurso que son necesarios.
INDICADORES DE CALIDAD
TIPO DE INDICADORES
EFICIENCIA EFICACIA
Optimización de los recursos
Capacidad y acierto de lograr
disponibles.
los objetivos en cada uno de
los procesos establecidos.
GESTIÓN EVALUACIÓN CUMPLIMIENTO
Administración Progreso y Finalización de cada
y ejecución de evolución de proceso y cumplimiento de
acciones en cada proceso. objetivos estratégicos.
cada proceso.
DATA QUALITY
• Data Quality es una área que empezó a tomar importancia en la década de los 90,
impulsada por el crecimiento exponencial de la tecnología.
Ciencia que se encarga de mantener la información de las
organizaciones.
• Completa • Actualizada
• Precisa • Única
• Consistente • Válida para el fin que fue creada.
Los datos recogidos y analizados viene de diversas fuentes,
con tipologías muy variadas y estructuras cada día más
complejas.
Medición exacta de la calidad.
DATA QUALITY - DIMENSIONES
Los datos
EXACTITUD describen correctamente un
objeto o evento.
Cumple con los requerimientos
asignados.
COMPLETITUD Los datos opcionales no son
considerados en esta dimensión.
DIMENSIONES
FUNDAMENTALES PARA LA Mide si los datos tienen
GESTIÓN DEL DATA QUALITY CONSISTENCIA coherencia lógica de formato
temporal.
PERTINENCIA TEMPORAL Disponibilidad de los datos.
UNICIDAD Cada datos es único.
VALIDEZ Tipo de dato, valores posibles
rangos.
ACTUALIZACIÓN
La mejora de la actualización de datos reduce el tiempo transcurrido en pocos minutos.
La actualización de los datos requiere que se identifiquen y determinen con el mayor
grado de detalle posible, aspectos como:
1. Propósito y alcance del estudio.
2. Lista de datos o características. Esta lista puede agruparse en conjuntos o
subconjuntos, según temas o materias de estudio.
3. Descripción del tipo de investigación.
4. Dominio de estudio cubierto por la investigación.
5. Procedimiento de recolección de los datos.
6. Cobertura geográfica.
7. Período de referencia de los datos.
8. Nombre de las entidades o instituciones responsables.
9. Organización del trabajo de campo.
10. Funciones que le corresponderán a cada entidad responsable.
COMPLETITUD
Completitud: es el grado en el que todos los atributos
de los datos están presentes.
• La completitud es uno de los atributos de la calidad
de los datos que mayor importancia tienen en
términos de análisis.
• La detección de datos carentes de ella es
imprescindible para garantizar la consistencia de la
información con que se trabajará.
FIABILIDAD
Los expertos en Data Analytics conocen bien la importancia de disponer de información fiable y
pertinente para que esos análisis permitan tomar decisiones correctas.
Exactitud: Los datos proporcionados son precisos, la representación de datos refleja
el estado real de la información de origen y su representación no genera
ambigüedades.
Consistencia: Una vez procesados los datos sus conceptos, dominios y formatos
coinciden como antes de ser procesados. Son consistentes y verificables durante un
tiempo.
Integridad: Formato de datos claro y que cumple con los criterios, tienen integridad
estructural y en contenido.
Completitud: En caso de que una deficiencia de un componente afectara la precisión
e integridad de datos y su uso.
ACCESIBILIDAD
Las bases de datos surgen por la necesidad de
almacenar la información de una manera
estructurada.
• Asegurar que su accesibilidad y disponibilidad sea
inmediata.
• Facilitar las labores de los diferentes usuarios.
CONSISTENCIA
El término Consistencia genéricamente podemos asociarlo con
la solidez de una estructura, nos permite evaluar cuál es la
calidad requerida en términos de firmeza o rigidez.
En matemática y estadística: Se observan muchas variables, la
mayoría de ellas son consistentes en cuanto al valor que
tienen para realizar un cálculo.
Las herramientas que se tienen para mantener vigiladas esas
constantes en algunos casos son tan grandes e
impresionantes que quienes las estudian se maravillan con
algún cambio en la producción de su consistencia.
SMART DATA
El Smart Data aparece a raíz del Big Data, este hace referencia a la
transformación de largas listas de números y datos en información
con valor que contiene respuestas útiles.
• El Big Data sería la captación de información, procesamiento y
filtrado.
• El Smart Data actuaría una vez que se disponga de toda esa
información procesada y haría uso de fórmulas matemáticas para
convertir datos en respuestas.
El Smart Data se traduce como transformar el Big data en
información útil y disponible en tiempo real, de modo que el negocio
pueda aprovechar estos datos para sus propios fines.
DOCUMENTACIÓN DE DATOS
Importante:
• Generar, preservar y dar acceso a toda la información que sea necesarias para que los datos puedan ser
interpretados y utilizados por el equipo de investigación y por otras personas interesadas en esa información.
• La documentación de los datos debe iniciar tan pronto empiece la
investigación.
• Tener claridad en el contenido.
• Seguir una metodología de estructura de datos.
• Determinar el proceso de recopilación o creación.
• Utilizaciones de los datos.
La forma de documentación puede establecerse en un principio
dependiendo de la investigación:
• Cuadernos de laboratorio.
• Reportes técnicos.
• Publicaciones.
DOCUMENTACIÓN DE DATOS – NIVELES A
CONSIDERAR
Contexto de la investigación: historia del proyecto, propósito, objetivos, hipótesis, entre otros.
Metodología empleada.
Diseño de la muestra.
Instrumentos, hardware, software utilizados.
Protocolos, cuestionarios, instrucciones, guías de entrevistas.
Escala de datos.
ASPECTOS A Cobertura temporal y geográfica.
DOCUMENTA Métodos de digitalización y transcripción.
RSE EN UN
Estructura y relaciones de los ficheros de datos, número de casos, variables.
PROYECTO
Procedencia de los datos (cuando son derivados).
Procedimientos y control de calidad: validación, prueba, limpieza de datos, detección de errores,
calibración de instrumentos, edición, entre otros.
Modificaciones hechas a los datos a lo largo del tiempo.
Cambios en la metodología, variables, medidas, muestreo u otro.
Información sobre confidencialidad, acceso y uso de los datos.
Información bibliográfica que indique cómo citar los datos de la investigación.
3. PREPARACIÓN Y
PROSPECCIÓN DE DATOS
PREPARACIÓN DE DATOS
Aspectos a tener en cuenta en la preparación de datos:
• Combinar variables para detectar predictores complejos.
• Preparar rigurosamente los datos.
• Evaluar el origen y la condición de los datos.
• Perfilar los datos.
• Buscar extremos.
• Valores atípicos.
• Valores faltantes.
• Valores incorrectos.
• Desfases.
• Campos de alta cardinalidad: atributos con contenido de valores diferentes.
Una preparación adecuada de los datos mitiga el riesgo de problemas que se puedan presentar
en el proceso de carga de datos.
RECOLECCIÓN DE DATOS
• La recolección de datos nos conducen a la verificación del
problema planteado.
• Cada proyecto requiere unas técnicas a utilizar por esto se Etapas:
deben establecer las herramientas, instrumentos o medios que
sean empleados. a). Localización de la organización.
b). Acceso a la información.
• Todo lo que va a realizar el Data Analytics tiene su apoyo en la c). Muestreo con propósito.
técnica de recolección de datos, así emplee diferentes medios,
d). Recolección de información.
su marco metodológico de recolección de datos se concentra
en la técnica empleada. e). Registro de información.
f). Asuntos de campo.
• Una vez recogidos se podrá pasar a la siguiente fase del g). Almacenamiento de información.
análisis de los datos obtenidos.
DATA CLEANSING – WEB SCRAPPING
No siempre se puede confiar en que todos nuestros datos sean de alta calidad. Los datos de baja
calidad afectan los resultados de los algoritmos de minería de datos. La limpieza de datos es el
proceso de identificar datos "sucios" y corregirlos.
Para limpiar los datos, necesitamos saber:
•¿Qué tipo de datos hay en nuestro conjunto de datos?.
•¿Cuáles son los atributos y cómo se relacionan?.
Hay 4 tipos de atributos a los que se debe prestar atención:
1. Nominal (etiquetas): nombres de cosas, categorías, etiquetas, géneros.
2. Ordinal (ordenado): escalas Likert, alto / medio / bajo, G / PG / PG-13 /
NC-17 / R.
3. Intervalo (orden con diferencias): fechas, horas, temperatura.
4. Relación (orden con diferencia / cero): dinero, tiempo transcurrido, altura /
peso, edad.
NORMALIZACIÓN
• El proceso de normalización de una base de datos consiste en aplicar una serie de reglas
para evitar en un futuro realizar consultas innecesarias y complejas.
• Se enfoca en eliminar redundancias e inconsistencias en el diseño de las tablas.
• Se hace con el fin de almacenar la mayor cantidad de datos, utilizando el menor espacio.
1 FN 2 FN 3 FN
Describe el formato tabular. Segunda forma normal. Tercera forma normal.
• Los atributos llave están • Está en 1 FN. • Está en 2 FN.
definidos. • No incluye dependencias • Y cuando no contiene
• No hay grupos repetidos parciales, ningún atributo dependencias
• Los atributos son es dependiente de solo una transitivas.
dependientes de la llave parte de la llave.
primaria.
ETL – INGESTA E INCORPORACIÓN DE
INFORMACIÓN
Las ETL hacen parte de la integración de los datos, siendo fundamental,
ya que permite completar el resultado del desarrollo de la cohesión de
aplicaciones.
La palabra ETL corresponde a las siglas en inglés de:
• Extraer: extract.
• Transformar: transform.
• Cargar: load.
Proceso de extracción, primera fase de los procesos ETL.
Extraer los datos desde el sistema de origen.
Analizar los datos extraídos, chequeo.
Interpretar el chequeo para verificar que los datos extraídos cumplan la estructura que se esperaba.
Convertir los datos a un formato preparado para iniciar el proceso de transformación.
ETL – INGESTA E INCORPORACIÓN DE
INFORMACIÓN
Procesos ETL: fase de Transformación
Acumulación simple: consiste en realizar un
La fase de transformación de los resumen de todas las transacciones de un
procesos de ETL aplica una serie de periodo tiempo siendo la única transacción hacia
reglas de negocio o funciones sobre Proceso de la data warehouse.
los datos extraídos para convertirlos Carga: Este valor calculado consistirá típicamente en la
en datos que serán cargados. Los datos sumatoria o un promedio de la magnitud
procedentes de considerada.
• Declarativas.
• Independientes. la fase anterior,
• Claras. son cargados en Rolling: proceso recomendable en los casos en
• Inteligibles. el sistema de que se busque mantener varios niveles de
• Con una finalidad útil para el destino. granularidad.
negocio. Para ello se almacena información resumida a
distintos niveles, correspondientes a distintas
agrupaciones de la unidad de tiempo o diferentes
niveles jerárquicos en alguna o varias de las
dimensiones de la magnitud almacenada.
MISSING VALUES
• Define los valores de los datos como perdidos y
puede tener diferente significados.
• Es posible que el campo no sé aplicable.
• El evento no ocurrió.
• Los datos no estaba disponibles.
• La persona que digito la información no tenía la
información correcta.
• Simplemente el campo quedo vacío.
DATA INTEGRACIÓN
Data Integración es un proceso de transformación y conciliación de datos que permite una mayor
agilidad en la gestión.
Proporcionando datos:
• Conectados.
• Seguros.
• De calidad.
Data Integración permite combinar datos que se
encuentran en diferentes fuentes, para permitirle al usuario
final tener una visión única del proyecto que contribuya a las
necesidades del negocio.
DATA REDUCTION
Es el proceso de reducir la cantidad y capacidad requerida para el
almacenamiento de datos:
Puede contribuir a:
• La eficiencia de almacenamiento.
• Reducción de costos.
Es la transformación de información digital, numérica o
alfabética, recolectada de forma empírica o experimental,
con una estructura ordenada y simplificada.
SELECCIÓN DE INSTANCIAS
Combinamos una estrategia de estratificación con los algoritmos de selección de instancias.
DISCRETIZACIÓN (CLUSTERING DE
INFORMACIÓN)
La discretización es el proceso de colocar valores en
grupos para que haya un número limitado de estados
posibles.
• Los cubos se tratan como valores ordenados y
discretos.
• Puede discretizar columnas numéricas y de
cadena.
PROSPECCIÓN
La prospección en los datos aporta soluciones y contribuye a la
innovación garantizando una mejor calidad en la selección de los
datos.
Los campos de las finanzas, el retail, las telecomunicaciones o la
investigación médica son algunos de los más favorecidos, aunque no
los únicos.
Métodos:
Desde la explosión Big Data, la escalabilidad es una cualidad
imprescindible de cualquier herramienta orientada al analytics.
Las soluciones deben tener la flexibilidad suficiente para poder
crecer al ritmo que lo requiere el proyecto, dando soporte al aumento
constante del volumen de datos.
BUSCAR RELACIONES ENTRE LOS DATOS
Las relaciones evitan redundancias de datos guardados en las tablas.
Tipos de Relaciones:
• Uno o varios.
• Varios a varios.
• Uno a uno.
Las relaciones en una base de datos son el pilar
fundamental en la construcción de bases de datos
relacionales, permite establecer las concordancias,
asignaciones y relación entre las tablas.
Permite garantizar la integridad referencial de los datos. Con el fin de mantener la lógica y consistencia de los
mismos.
Permiten evitar la duplicidad de registros.
APROXIMACIÓN A LOS DATOS
Consiste en aplicar técnicas a los datos de:
• Clasificación.
• Reglas.
• Asociación.
Su objetivo es predecir mediante la creación de modelos con el fin de
mejorar los procesos relacionados con los distintos roles de
aproximación a los datos.
Aplicar técnicas para el apoyo a la toma de decisiones estratégicas cuyo principal propósito es la mejora el
contexto de los proyectos.
El proceso consiste en encontrar accionables mediante la definición de métricas, recolección, análisis,
informe de datos y/o predicción para actuar en relación con la estrategia de negocio.
4.INDICADORES
ESTADÍSTICA DESCRIPTIVA
Es la rama de la estadística encargada de recolectar, analizar y caracterizar un conjunto de datos.
• El objetivo es describir las características y comportamientos de este conjunto mediante medidas de
resumen, tablas o gráficos.
Variables
Cualitativas: Son las variables que pueden tomar como
valores cualidades o categorías.
Cuantitativas: Variables que toman valores numéricos.
POBLACIÓN ESTADÍSTICA
Recolección de un conjunto de datos de características comunes
con el fin de analizarlos y obtener unas conclusiones puntuales
que apoyen el resultado de un proyecto u organización.
Tipos de Población:
1. Población finita: la compone un número pequeño de datos.
2. Población infinita: grandes volúmenes de datos.
3. Población real: compone un grupo de datos existentes o reales.
4. Población hipotética: posibles hipótesis, difícilmente
comprobables.
5. Población aleatoria: presenta alteraciones, sin causa especifica.
6. Población dependiente: depende de una causa determinada.
7. Población polinomial: diversas características.
MUESTRAS ESTADÍSTICAS
La estadística, como rama de las matemáticas, se encarga de recoger datos, ordenarlos y analizarlos.
Cuando queremos analizar determinada información recurrimos a las muestras estadísticas.
1. Subconjunto de datos perteneciente a una población de
datos.
2. Debe estar constituido por un cierto número de
observaciones que representen adecuadamente el total de
los datos.
VARIABLES
Una variable: Es una característica que puede
fluctuar y cuya variación es susceptible de adoptar
diferentes valores.
Pueden medirse u observarse.
Las variables adquieren valor cuando se relacionan
con otras variables, es decir, si forman parte de una
hipótesis o de una teoría.
MEDIDAS
La media de una serie estadística que proporciona
una idea de sus características.
• Clasificación acordada con el fin de describir la
naturaleza de la información contenida dentro de
los números asignados a los datos.
• Según la teoría de las escalas de medida, varias
operaciones matemáticas diferentes son posibles
dependiendo del nivel en el cual la variable se
mide.
INDICADORES
Son datos que nos permiten medir de forma objetiva sucesos para poder respaldar acciones.
Son variables que intentan medir en forma cuantitativa o cualitativa, sucesos colectivos para
así, poder respaldar acciones.
Atributos de los Indicadores:
1. Disponibilidad.
2. Especificidad.
3. Confiabilidad.
4. Sensibilidad.
5. Alcance.
DIAGRAMAS
Representación gráfica mediante la cual se representan distintos procesos.
• Expresan secuencialmente los pasos de un proceso.
• Facilitan la comprensión.
• Son la representación simbólica de los procesos de un proyecto.
• Mejor gestión de los procesos.
• Muestran de manera global la composición de un proceso o procedimiento por lo que favorecen su
comprensión.
• Al mostrarlo como un dibujo, el cerebro humano reconoce fácilmente los dibujos.
• Un buen diagrama de flujo reemplaza varias páginas de texto.
5. VISUALIZACIÓN
DE DATOS
PLATAFORMAS
• GeoWE: Plataforma GIS libre para crear y editar tus propios
mapas en la web.
• PostGIS: Base de datos espacial open source más avanzada.
• Google Maps.
• ESRI: Plataforma web de mapeo.
• Open Layers: Plataformas web de mapeo online que también usa
APIs de JavaScript para crear mapas interactivos en la web.
• ArcGIS es el software SIG – GIS (Sistemas de Información
Geográfica) más usado en el mundo. Permite gestionar y analizar
la información geográfica de una forma precisa, por tal motivo,
son una herramienta fundamental en la toma de decisiones en
diversos ámbitos de trabajo (medio ambiente, ordenación del
territorio, topografía, gestión de riesgos, estudios hidrológicos,
etc).
• MapSource: Es la herramienta de Garmin indicada para añadir o
actualizar los mapas en nuestro GPS.
GRÁFICOS
La comunicación gráfica transmite un mensaje con determinada intención, de manera visual, permitiendo
impactar y a la vez, genere un cambio consciente en el receptor de dicho mensaje.
Pasos:
1. Investigación.
2. Recolección de información.
3. Interpretación.
Aspectos:
• Personalidad.
• Edad.
• Profesión.
• Gustos y disgustos.
Los cuales determinan el plan de acción de la estrategia.
6. EL DATO GEOGRÁFICO
GENERACIÓN DEL DATO GEOGRÁFICO
Es una integración organizada de hardware, software y datos
geográficos:
Diseñada para:
• Capturar.
• Almacenar.
• Manipular.
• Analizar.
Desplegar en todas sus formas la información geográficamente
referenciada con el fin de resolver problemas complejos de
planificación y de gestión que se presenta en todo tipo de
organizaciones.
RELACIONES ESPACIALES
Datos espaciales
en un espacio de coordenadas
OPERACIONES BÁSICAS SOBRE QGIS
Se trata de una serie de análisis basados en el procesamiento de la información geográfica,
en inglés Geoprocessing.
• El conjunto de procedimientos que agrupamos
en geoprocesamiento están destinados a establecer
relaciones y análisis entre dos o más capas
(shapefile comúnmente conocidas).
• Por lo general, estos procesos, se realizan mediante el
análisis de dos capas, aunque en algún caso es posible
operar con una sola o con más de dos a la vez.
7. EXPOSICIÓN Y
COMUNICACIÓN
PRESENTACIONES EFECTIVAS
Los principales objetivos que debes tener a la hora de hacer una presentación son captar y
mantener la atención de los asistentes y procurar que su contenido sea recordado por ellos.
1. Muestra tu personalidad.
2. Varía el tono de tu voz.
3. No leas.
4. Utiliza tus manos.
5. Habla de forma pausada.
6. Míralos a los ojos.
7. Apóyate en imágenes llamativas.
8. Concéntrate en lo importante.
9. Prepárate bien.
10. Cifra sorprendente.
11. Una pregunta, ya sea retórica o no.
12. La conclusión.
COMUNICACIÓN DE RESULTADOS
El arte de comunicar se ha convertido en un trabajo sistemático, organizado, variable
y fundamental que sostiene el proyecto estratégico de las organizaciones.
Toda investigación tiene como finalidad:
• Obtener datos.
• Obtener información.
• Dar repuesta a una investigación o proyecto.
Los actores claves son:
1. Las personas.
2. La empresa.
3. El entorno.
STORYTELLING
Es el arte de contar una historia usando lenguaje sensorial presentado de tal forma que transmite
a los oyentes la capacidad de interiorizar, comprender y crear significado personal de ello.
Cuando Apple presentó el iPod al mundo por primera vez, no nos
hablaron de cuántos megabytes llevaba. Nos contaron una
historia de “1.000 canciones en tu bolsillo” y así nos enganchó.
Steve Jobs sabía cómo diferenciar Apple de sus competidores
porque era un maestro en storytelling. Y con su liderazgo, la
empresa tecnológica se convirtió en una potencia mundial.