0% encontró este documento útil (0 votos)
21 vistas19 páginas

Resumen IndX.0

El documento aborda conceptos clave de inteligencia artificial, machine learning y deep learning, explicando sus diferencias y aplicaciones. También se discuten tecnologías emergentes como el Internet de las Cosas (IoT) y la automatización de procesos mediante RPA, destacando su impacto en la productividad y la transformación digital. Finalmente, se presentan herramientas y metodologías para el análisis de datos y la implementación de chatbots en diversas industrias.

Cargado por

gmiri
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
21 vistas19 páginas

Resumen IndX.0

El documento aborda conceptos clave de inteligencia artificial, machine learning y deep learning, explicando sus diferencias y aplicaciones. También se discuten tecnologías emergentes como el Internet de las Cosas (IoT) y la automatización de procesos mediante RPA, destacando su impacto en la productividad y la transformación digital. Finalmente, se presentan herramientas y metodologías para el análisis de datos y la implementación de chatbots en diversas industrias.

Cargado por

gmiri
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

INDUSTRIAS X.

0
INDUSTRIAS X.0

CLASE 1

Inteligencia artificial – Machine Learning – Deep Learning

DEEP LEARNING MACHINE LEARNING


ARTIFICIAL INTELLIGENCE
Conjunto de algoritmos que permite al Disciplina dentro de la IA, que
Disciplina de la informática que
software entrenarse a sí mismo para diseña algoritmos capaces de
diseña entidades capaces de
realizar tareas como reconocimiento aprender por sí mismos a tomar
procesar, analizar y utilizar datos
de voz e imágenes, exponiendo redes decisiones por medio de un
para ejecutar acciones de
neuronales de varios niveles a entrenamiento previo con gran
manera semejante a un humano
grandes cantidades de datos cantidad de datos.

Artificial Narrow Intelligence: Inteligencia de máquinas que iguala o supera la


inteligencia humana en una tarea específica

Artificial General Intelligence: Máquina que tiene la capacidad de aplicar inteligencia a


cualquier problema.

Artificial Superintelligence: Intelecto que es mucho más capaz que los mejores cerebros
humanos en prácticamente todos los campos.
Supervised Learning: Se necesita la intervención humana para etiquetar, clasificar e
introducir los datos en el algoritmo. Se basa en descubrir la relación existente entre
una variable de entrada y una variable de salida.

Unsupervised Learning: no existe la intervención humana en este tipo de Machine


Learning. Aquí los algoritmos aprenden de datos con elementos no etiquetados
buscando patrones o relaciones entre ellos. Consigue producir conocimiento
mediante los datos que se proporcionan como entrada sin necesidad de explicarle al
sistema qué resultado queremos obtener. Los conjuntos de datos para entrenar son
menos costosos de conseguir. Busca patrones en los datos de entrada.

Reinforcement Learning: basado en el feedback o premio. El agente toma una acción


en un ambiente para poder llegar a cierto objetivo. El tomar esa acción en el
ambiente, hace que esté en un estado y reciba una recompensa (mala, si estuvo malo
buena, si estuvo bien). Entonces el agente va a buscar la solución que le lleve a
maximizar las recompensas positivas.

Machine Learning tiende a trabajar bien:

 Aprendiendo un concepto simple


 Cuando hay muchos datos disponibles

Pero tiende a trabajar peor:

 Aprendiendo conceptos complejos con pequeña cantidad de datos


 Se le pide que trabaje en nuevos tipos de datos

Imita las redes neuronales del cerebro humano.

Una Deep neural network consiste en una jerarquía de capas, en la cual cada capa
transforma los datos del input en representaciones más abstractas. Son capaces de
aprender de forma jerarquizada. En las primeras capas se aprenden conceptos muy
concretos y en las capas posteriores se usa la información aprendida anteriormente
para aprender conceptos más abstractos. La capa de output combina todo para
realizar predicciones.

Internet: una red global de dispositivos que provee servicios de comunicación e


información. Redes interconectadas que utilizan protocolos de comunicación y
mecanismos de búsqueda estandarizados. Internet de las personas.

Internet of things → Idea de conectar cosas cotidianas a través de internet. Dispositivos


inteligentes.
Internet Tradicional Internet of things
¿Quién crea el contenido? Humanos Máquinas programadas
por humanos sin
intervención humana
¿Cómo se consume el Requerimiento Enviando información y
contenido? gatillando acciones
¿Cómo se accede al Por links explícitos A través de operadores
contenido? bien definidos
¿Qué espera el usuario? Respuesta a sus Información en tiempo y
preguntas forma y acciones
¿Cómo se ha hecho hasta Creación de contenido Principalmente creando
ahora? HTML y consumo de contenido
contenido

IoT es la intersección y relación simbiótica de lo físico con lo digital.

El alcance va desde Wearables (relojes, celulares, etc) hasta casas, ciudades e


industrias.

IoT se aplica con sensores de reducido tamaño, menor costo y bajo consumo de
energía.
Mayor impacto → sector automotriz, construcción, ciudades, transporte, energía y
salud.

Componentes de IoT

▪ Cosas físicas
▪ Canales de comunicación/conectividad: Combinaciones de protocolos
utilizados en internet y soluciones de conectividad para transferir datos.
▪ Software y Servicios: Reciben, procesan, guardan y analizan datos
provenientes de cosas u otros dispositivos
▪ Operaciones. DevOps: Aplicaciones desarrolladas a medida para la operación.
Son los recursos para desarrollo y éxito de las operaciones de IoT en
combinación con el acceso a la Infraestructura de “La Nube”
▪ Datos

“Things” o dispositivos

Deben tener:

 Identidad única
 Capacidad de conectarse con otros dispositivos
 Auto alimentado o baterías de larga duración
 Capacidad de ejecutar comando de control

Pueden ser:

• Objetos inteligentes
• Sensores
• Actuadores
• Centro de control
El dispositivo puede:

✓ Solo sensar una función y enviar datos crudos al centro de control


✓ Combinar datos de varios sensores, analizar datos locales y tomar acción.
✓ Cerebro: provee control local o toma de decisiones. Microcontrolador.
✓ Conectividad: comunicar datos a controles externos.

Software y Servicios

The Cloud: Se refiere al almacenamiento de datos fuera de nuestros dispositivos.

Los Cloud servers residen en data centers.

Las compañías no tienen que administrar los servidores físicos y apps.

SAAS (Software como servicio): permite a los usuarios conectarse a aplicaciones


basadas en la nube a través de Internet y usarlas.

PAAS (Plataforma como servicio): es un entorno de desarrollo e implementación


completo en la nube, con recursos que permiten entregar todo, desde aplicaciones
sencillas basadas en la nube hasta aplicaciones empresariales sofisticadas
habilitadas para la nube. Uno le compra los recursos que necesita a un proveedor de
servicios en la nube, a los que accede a través de una conexión segura a Internet
pero solo paga por el uso que hace de ellos.

IAAS (Infraestructura como servicio): la compañía renta servers y almacenamiento.


Usa los servicios de infraestructura para construir las apps, pero usan sus propias
herramientas para el desarrollo.

Procesamiento de datos

❖ Aplica lógica a los mensajes entrantes e invoca acciones en tiempo real.


❖ Procesa mensajes simultáneamente en cualquier orden.
❖ Maneja multi protocolos de distintos dispositivos

Almacenaje de datos

La base de datos debe manejar grandes volúmenes de datos sin comprometer la


performance y ser NoSQL (Not Only SQL – libres de esquemas)

Análisis de datos

Correr algoritmos de análisis en tiempo real y machine learning.


Análisis predictivos de comportamientos, visualizar tendencias, desvíos y alarmas.

Aplicación IoT
Tres funciones críticas:

1. Interacción humana con el Sistema IoT - Interfaz de Usuario (UI)

2. Permite visualizar datos

3. Mecanismo para data analytics


RPA
Es la automatización de procesos mediante un software que corre en una
computadora (robot) e interactúa con el ecosistema de la misma forma que lo hace
una persona física.

¿Cuándo aplicar RPA?


Características del proceso:

• Altamente manual y repetitivo


• Basado en reglas
• Input estándar y legibles
• Bajo índice de excepciones
• Alto volumen transaccional
• Sin impacto significativo en sistemas (no es invasivo en los sistemas actuales)

Rápida implementación

 No requiere una fuerte inversión


 Recuperación del ROI en el corto plazo

Flexibilidad

 Adaptabilidad a distintos entornos


 Impacto mínimo en las tecnologías existentes

Mejora la productividad

 Recursos se focalizan en actividades de valor agregado

Mejora la calidad y el control

 Eliminación de errores humanos


 Mayor adherencia a estándares

Reducción de costos/tiempo

METODOLOGÍA ESOAR (la que utiliza Capgemini)

Eliminar todas aquellas actividades que sean innecesarias que afectan costo, E
tiempo y esfuerzo.

Estandarizar procesos y pasos similares, a través de las mejores prácticas y S


utilizando templates construidos.

Optimizar procesos limitando la customización y optimizar el panorama IT O


existente para maximizar sus capacidades.

Automatizar el proceso estandarizado utilizando las mejores herramientas. A

Robotizar transacciones repetitivas y basadas en reglas. R


UiPath Studio UiPath Orchestrator UiPath Robots
Diseñador Conductor Ejecutor
Aplicación de escritorio Plataforma de servidor que Servicio de Windows que
que permite a usuarios permite la gestión de ejecuta instrucciones
diseñar con herramientas procesos. automáticas
intuitivas, no con códigos

Ejercicio clase
Proyecto: Organización

Activities: módulos pre programados que cubren determinadas funcionalidades

Manage Packages: diferentes librerías

Assign: Asignación de un valor a una variable

Flowchart: van a definir la estructura condicional del proceso

Secuencia: las tareas puntuales

Debug: el desarrollador va viendo como se comporta el robot en determinadas


situaciones

Variables: uso interno dentro de xaml

Argumentos: permiten interacción desde afuera

Imports: contienen todas las clases y funcionalidades que se pueden ir importando al


robot.

Scope: es el alcance que tiene una variable en el entorno que está siendo ejecutada.
Generalmente va a tener el nombre en la secuencia donde estés parado.

Lo primero que se hace es abrir el main e importar un flowchart.

Para leer el Excel, se crea una nueva secuencia: ReadExcelFile. El ReadExcelFile va a


recibir un argumento que es el path del Excel (In) y nos va a devolver una tabla con
los alumnos (Out). Hay que cambiar el tipo de dato de salida para que nos pueda
devolver una tabla (Data Table).

Como tiene que leer un archivo Excel, tenemos que agregar un Excel Application
Scope y ponemos pathExcel. Para leerlo, se pone un Read Range (poner el de Excel) y
lo ponemos dentro del scope. En output del Read Range seteamos una variable en
Data Table que se llama excelData.
Después ponemos un Filter Data Table dentro del Excel Scope y filtramos según el
criterio que corresponda y ponemos los inputs y los outputs. Después, vamos al main
e insertamos el Read Excel File en el flowchart. Importamos los argumentos y en el
path copiamos el path del Excel.

Ponemos una condición para ver si tiene registros. En el caso que sea Falso,
ponemos un log message (para ver qué camino fue siguiendo el robot).

Creamos para la parte verdadera, una secuencia que sea LoadToGoogleForms y le


ponemos de argumento la StudentsTable. Lo ponemos en el flowchart y le ponemos
un log message que diga “alumnos cargados” para entender que se terminó el
proceso.

Volvemos al LoadToGoogleForms y creamos un open browser. Además, creamos otro


argumento que sea url. Vamos al main e importamos el argumento url con el link del
forms. Guardamos y volvemos al Load. Ahí creamos un For Each Row para iterar en
la tabla. Ponemos un type into dentro del for para que escriba el Nombre
(student(“Nombre”).ToString). Hacemos lo mismo con apellido.
ALTERYX

INTELLIGENT AUTOMATION
INNOVACIÓN
Digital es el new normal

Activos físicos parte del siglo XX

Ser mejores en comprender y reaccionar a los cambios exponenciales.

La inteligencia artificial va a aumentar la productividad y va a generar $15.7 trillones


de USD.

Revoluciones:

Todos queremos tener una buena experiencia con cualquier transacción que hagamos
→ economía de la experiencia

Las economías de hoy son economías sin inventarios.

DIGITAL TRANSFORMATION
La transformación digital no es digital, tiene que ver con cultura, change
management, etc.
Esto es transformación digital:

1. Procesos: habilidad para cambiar


2. Big Data
3. Analytics: toda la empresa viendo la misma foto
4. Automatización
5. Inteligencia artificial

Fenómeno de Data Deluge (Diluvio de Data): tenemos más data que poder
computacional. Tenemos más data que la que podemos procesar.

Las 4 Vs de Big Data

1. Volumen 3. Velocidad
2. Variedad 4. Valor (por otro lado)
Timing para decisiones = 40% - 60%

Por arriba del 60%, si bien vas a tomar una decisión más acertada, te va a ganar la
competencia.

5 estados en la maduración digital:


1. Negación
2. Aceptación: aceptó el cambio que está ocurriendo, pero carece de una visión
clara del futuro y de cómo adaptarse.
3. Adaptativo: Ha alineado los objetivos empresariales y de IT para crear
productos digitales y las experiencias del cliente.
4. Transformador:
5. Disruptor:

INTELLIGENT AUTOMATION
Un software que imita el comportamiento de un usuario final siguiendo sus reglas de
comportamiento, incluidas las acciones físicas y cognitivas, para potenciar la
automatización rápida de los procesos empresariales de extremo a extremo.

Tipos de automatización:

1. RPA
2. Cognitive Automation
3. Social Robotics: robots tipo Boston Dynamics

Tareas compatibles con la automatización:

• Repetitivo vs. variable: Lo repetitivo va con RPA y lo variable con algo más
cognitivo
• Independiente vs. interactivo
• Físico vs. mental

Cross industry standard process for data mining

Una metodología que se usa en data mining


ALTERYX

Tiene diferentes módulos Cognitivo, Prescriptivo, Espacial, Predictivo

El primer escalón es preparar los datos. Lo que más tarda es limpiar y masajear la
data.

Podés usar todo tipo de base de datos

TOOLS

INPUT DATA

Pone los datos en el workflow conectándolo con una database.

Se selecciona qué tipo de datos hay que importar.

TEXT INPUT

Insertar datos ya convertidos. Ejemplo: insertar datos de social media y convertirla en


texto para injertarla en estos modelos.

BROWSE

Se conecta al final de cada una de estas herramientas para ver como se va


convirtiendo la data.

SELECT

Convertir la data y masajear la data.

FILTER: Split data

SORT: herramienta para ordenar

SAMPLE: limitar la data a una muestra

TEXT TO COLUMNS: separa texto en filas o columnas

UNION: unir diferentes data sets.

JOIN: intersección entre dos data sets

FORMULA: agregar una función

OUTPUT DATA: donde vamos a escribir esa data


SUMMARIZE: agrupar, sumar, contar, promedios, medias

TRANSPONSE: trasponer

DYNAMIC RENAME: convertir el dato

MULTI ROW FORMULA: transformar datos en base a datos que teníamos antes.

DATA CLEANSING: limpieza básica de los datos. Eliminar caracteres que no nos
sirven.

RECORD ID: identificar las filas, por ejemplo

JOIN MULTIPLE: combinar muchos inputs con un campo común y tiene un solo output.

Una vez que hicimos el blending viene la parte predictiva, después podés generar
pronósticos (Time series) y después se aplica el modelo.

AUTO FIELD/CAMPO AUTOMÁTICO: analiza la herramienta que entra y en base a eso,


convertirlo o sugerir otro tipo de datos.
CHATBOTS
Software que integra inteligencia artificial diseñado para simular una conversación
con una persona mediante respuestas automáticas. Se lo puede programar para
realizar determinadas tareas como marcar una fecha en un calendario o hacer una
reserva en un restaurant sin intervención humana.
4 tipos de bots:

Informativo: descubren información útil y resuelven consultas de clientes y empleados.

Productividad: Los empleados pueden interactuar con estos bots para, por ejemplo,
verificar ventas números, determinar el rendimiento de campañas de marketing o
monitorear el estado del inventario.

Transaccional: sirven como interfaces potentes para aplicaciones móviles a través de


los cuáles los clientes pueden pedir comida, reservar boletos, etc. Bots con mayor
capacidad de crecimiento.

De control: Admiten interfaces conversacionales que permiten a dispositivos


conectados como dispositivos portátiles, electrodomésticos y vehículos interactuar
entre sí, enriqueciendo la experiencia del usuario.

✓ Tiempos de respuestas inmediatos


✓ Obtención de datos en forma amigable
✓ Valor diferencial con la competencia
✓ Bajas barreras de ingreso
✓ Ahorro en costos operativos
✓ Mejora de la experiencia del empleado (modelos híbridos de atención)

LIMITACIONES DE LOS CHATBOTS


 Falta de datos de aprendizaje
 Poco entendimiento conversacional
 Dificultad para crear un atractivo global
 Normativa de protección de datos

MANEJO ADECUADO DEL NLP (PROCESAMIENTO DEL LENGUAJE NATURAL): Cuando


un usuario hace una pregunta al chatbot, tiene en mente un objetivo previsto. En el
diseño del chatbot, este objetivo se llama intento. El uso adecuado de keywords es
fundamental para lograr éxito en este procesamiento.

NLP: estudia las interacciones mediante uso del lenguaje natural entre los seres
humanos y las máquinas. Se centra en el procesamiento de las comunicaciones
humanas, dividiéndolas en partes, e identificando los elementos más relevantes del
mensaje. Con la Comprensión y Generación de Lenguaje Natural, busca que las
máquinas consigan entender, interpretar y manipular el lenguaje humano.

Más confiable va a ser el chatbot cuanto más se aumente la variedad y cantidad de


sus frases.
Es importante personalizar el chatbot (personalidad y voz) para que los usuarios no
creen su propia persona en base a sesgos personales.

Aumentar el tiempo de espera de los mensajes es útil para simular el tipeo y hacer
que el bot parezca más humano, además de darle tiempo al usuario para leer.

La forma de manejarse cuando el bot no entienda lo que dice el usuario tiene impacto
en la percepción que este tendrá del bot.

TIDIO SOFTWARE – TIPOS DE NODOS

Disparadores: un nuevo flujo de trabajo siempre tiene que comenzar con un disparador,
algo que el visitante debe hacer para iniciar esta automatización en particular.

Acciones: las acciones deben conectarse en orden cronológico. Línea que los conecta
debe dibujarse de la acción a la reacción que sigue.

Condiciones: Manejan el flujo evaluando un dato


APA
Analytic process automation is the intelligent automation of data access, advanced
analytics and business processes with the use of analytic algorithms and machine
learning made easily accessible to anyone. APA platforms must provide self service
capabilities that simplify diagnostic, predictive, prescriptive, and location/geospatial
analytics.
La Automatización de procesos analíticos (APA) es la tecnología que permite que
todos en tu organización puedan compartir datos fácilmente, automatizar procesos
tediosos y complejos y transformar datos en resultados.
LOS CUATRO PRINCIPIOS DE APA

1. Del descubrimiento de los datos al descubrimiento de la automatización


El descubrimiento de los datos era la tarea que más tiempo y recursos
consumía. Ahora, se está moviendo del descubrimiento de datos manual al
descubrimiento automático de datos críticos en cualquier formato.
2. Del autoservicio al servicio automático
Las plataformas de APA mueven el paradigma del servicio un paso más allá al
automatizar el conocimiento, las recomendaciones de activación automática y
la automatización de procesos comerciales. Estas plataformas automatizan la
entrega de información mediante el aprendizaje automático para identificar y
recomendar información nueva y relevante, no detectable por medios
humanos.
3. De la codificación manual a la generación automática
Las soluciones “code-first” que dependen de notebooks y Python se
convirtieron en barreras de entrada para las organizaciones que desean
mejorar sus programas de análisis y mejorarlos para obtener mejores
resultados comerciales. APA cambia el paradigma analítico de la dependencia
en el código de la ciencia de datos hacia la generación automática de modelos
y algoritmos sin código.
4. Del conocimiento integrado al proceso automático
APA va más allá de la analítica integrada al ofrecer información y activar
acciones a través de bots automáticamente.

RPA automatiza tareas repetitivas via bots, mientras que APA automatiza procesos de
negocios centrados en datos que incluyen data tasks, steps y algoritmos de data
science. Ej: pronosticar la demanda y automatización de supply chain, optimización de
las ventas, etc.

Uno de los beneficios más grandes de APA es que las personas están libradas de la
recolección, preparación y manejo manual de datos en los procesos data-driven.

El acceso a los datos y la preparación es una experiencia “drag- and- drop”,


facilitando el acceso y preparación de datos desde diversas fuentes y aplicaciones de
la empresa, tanto interno como externo.

El propósito del acceso y preparación de datos integrados en una plataforma APA es


optimizar y automatizar la canalización de datos. La plataforma APA tiene que
automatizar los resultados comerciales directo en aplicaciones en una variedad de
formatos de salida.

APA automatizan totalmente el proceso.

SIMULACIÓN
Evaluación de distintos escenarios, de cosas que existen y ver “que pasa si” y de
cosas que no.

MODELADO DE SIMULACIÓN
Permite experimentar con una representación digital válida de un sistema.

Resuelve problemas del mundo real de manera segura y eficiente.

• Entorno libre de riesgo: forma segura de explorar y probar diferentes


escenarios de “qué pasaría si”
• Insight into dynamics: Permite observar el comportamiento del sistema a lo
largo del tiempo.
• Ahorre dinero y tiempo: modelos de simulación son menos costosos y toman
menos tiempo.
• Visualización: se pueden animar en 2D/3D, lo que permite verificar conceptos
de ideas más fácilmente.
• Manejo de incertidumbre: la incertidumbre en tiempos de operación y el
resultado se pueden representar fácilmente en modelos de simulación
• Precisión aumentada: puede capturar muchos más detalles que un modelo
analítico, proporcionando mayor precisión y pronósticos más precisos.

Los modelos de simulación sirven en aquellos procesos que tienen alta variabilidad.

Para un mismo input se obtiene un abanico de resultados, teniendo en cuenta la


estocasticidad del sistema.

Cuando no tenés datos, como pasó con el COVID, empezás a usar modelos basados en
supuestos.

Son modelos que ayudan en la toma de decisiones


¿POR QUÉ SIMULACIÓN?

Permite crear un modelo virtual libre de riesgos, permitiendo reflejar las respuestas
del sistema ante intervenciones que no pueden ser llevadas a cabo de forma directa.
Permite abarcar lógicas, restricciones y aleatoriedades que agregan complejidad al
sistema.
PARADIGMAS DE SIMULACIÓN Y SIMULACIÓN MULTIPARADIGMA
 Discrete event modeling: principalmente en niveles operativos y tácticos, como
procesos de fabricación y evaluación de inversiones en equipos. (fábrica
operando)
 Agent based modeling: en todos los niveles. Agentes de cualquier entidad
activa. (poblaciones, circuito operando)
 System dynamics: alto nivel de abstracción y problemas de nivel estratégico
(ej: modelos económicos, epidemias, saco un nuevo producto y quiero ver
como va a ser el mercado)

Modelado multiparadigma →integra los diferentes métodos, creando modelos


eficientes y más manejables. Para casos complejos, es conveniente describir las
partes de un sistema con diferentes paradigmas.

Hay que abstraerse y empezar a hacer cortes para decidir qué paradigma voy a
utilizar.

La mayoría de los casos del mundo real son complejos, y es conveniente describir
diferentes partes de un sistema con diferentes paradigmas.
Ejemplo:

Eventos discretos: almacén (cada planta si la miramos con lupa)

Basado en agentes: red de distribución (red de plantas que se relacionan entre sí)

Dinámica de sistemas: el mercado

DIGITAL TWINS APLICADOS A SUPPLY CHAIN

Digital twin: modelo que replica tal cual un proceso, una máquina, etc.

Beneficios:

 Reducción de costos
 Ganar eficiencia y entendimiento de los procesos
 Manejar incertidumbre
 Manejar complejidad
 Ambiente libre de riesgos
TODO SE BASA EN DATOS

Cloud: dejar de tener tus servidores sino que pagás para tenerlo en la nube. Permite
tener muchos más datos y son mucho más potentes.

Muchos modelos de machine learning ahora se pueden entrenar en cloud.

No todas las industrias requieren un digital twin, es efectivo cuando:

✓ Es demasiado caro o riesgoso hacer pruebas en vivo


✓ Grandes cambios o complejos
✓ Donde es importante predecir variabilidad del proceso
✓ Donde la toma de decisiones debe ser precisa
✓ Cuando los datos están incompletos
✓ Cuando es necesario comunicar ideas y resultados
ARQUITECTURA: ECOSISTEMA DE UN DIGITAL TWIN

Con los datos,


conceptualizamos el
proceso, pasando de
un problema real a un
modelo conceptual.
Con el modelo y los
datos que tenemos,
programamos el
modelo de simulación.
Se lleva el modelo
matemático a lenguaje computadora y lo único que queda es cambiarle los inputs.

No hay modelos de digital twins o de simulación que sirvan para diferentes cosas sino
que servirá para UN SOLO OBJETIVO.

PROCESO DE DESARROLLO
1. Fase de descubrimiento: Identificación rápida del objetivo principal, el alcance
y los diferentes KPIs.
2. Modelado conceptual: Diseñar el modelo conceptual, teniendo en cuenta los
procesos de limpieza de datos necesarios y los escenarios hipotéticos
3. Desarrollo del digital twin: Adaptar el modelo, redefinir los parámetros de
simulación y comenzar la implementación de escenarios hipotéticos.
4. Validación y verificación: Recopilación de resultados y verificación del modelo
5. Escenarios What-if: Evaluación de impacto de cada escenario definido

También podría gustarte