INDUSTRIAS X.
0
INDUSTRIAS X.0
CLASE 1
Inteligencia artificial – Machine Learning – Deep Learning
DEEP LEARNING MACHINE LEARNING
ARTIFICIAL INTELLIGENCE
Conjunto de algoritmos que permite al Disciplina dentro de la IA, que
Disciplina de la informática que
software entrenarse a sí mismo para diseña algoritmos capaces de
diseña entidades capaces de
realizar tareas como reconocimiento aprender por sí mismos a tomar
procesar, analizar y utilizar datos
de voz e imágenes, exponiendo redes decisiones por medio de un
para ejecutar acciones de
neuronales de varios niveles a entrenamiento previo con gran
manera semejante a un humano
grandes cantidades de datos cantidad de datos.
Artificial Narrow Intelligence: Inteligencia de máquinas que iguala o supera la
inteligencia humana en una tarea específica
Artificial General Intelligence: Máquina que tiene la capacidad de aplicar inteligencia a
cualquier problema.
Artificial Superintelligence: Intelecto que es mucho más capaz que los mejores cerebros
humanos en prácticamente todos los campos.
Supervised Learning: Se necesita la intervención humana para etiquetar, clasificar e
introducir los datos en el algoritmo. Se basa en descubrir la relación existente entre
una variable de entrada y una variable de salida.
Unsupervised Learning: no existe la intervención humana en este tipo de Machine
Learning. Aquí los algoritmos aprenden de datos con elementos no etiquetados
buscando patrones o relaciones entre ellos. Consigue producir conocimiento
mediante los datos que se proporcionan como entrada sin necesidad de explicarle al
sistema qué resultado queremos obtener. Los conjuntos de datos para entrenar son
menos costosos de conseguir. Busca patrones en los datos de entrada.
Reinforcement Learning: basado en el feedback o premio. El agente toma una acción
en un ambiente para poder llegar a cierto objetivo. El tomar esa acción en el
ambiente, hace que esté en un estado y reciba una recompensa (mala, si estuvo malo
buena, si estuvo bien). Entonces el agente va a buscar la solución que le lleve a
maximizar las recompensas positivas.
Machine Learning tiende a trabajar bien:
Aprendiendo un concepto simple
Cuando hay muchos datos disponibles
Pero tiende a trabajar peor:
Aprendiendo conceptos complejos con pequeña cantidad de datos
Se le pide que trabaje en nuevos tipos de datos
Imita las redes neuronales del cerebro humano.
Una Deep neural network consiste en una jerarquía de capas, en la cual cada capa
transforma los datos del input en representaciones más abstractas. Son capaces de
aprender de forma jerarquizada. En las primeras capas se aprenden conceptos muy
concretos y en las capas posteriores se usa la información aprendida anteriormente
para aprender conceptos más abstractos. La capa de output combina todo para
realizar predicciones.
Internet: una red global de dispositivos que provee servicios de comunicación e
información. Redes interconectadas que utilizan protocolos de comunicación y
mecanismos de búsqueda estandarizados. Internet de las personas.
Internet of things → Idea de conectar cosas cotidianas a través de internet. Dispositivos
inteligentes.
Internet Tradicional Internet of things
¿Quién crea el contenido? Humanos Máquinas programadas
por humanos sin
intervención humana
¿Cómo se consume el Requerimiento Enviando información y
contenido? gatillando acciones
¿Cómo se accede al Por links explícitos A través de operadores
contenido? bien definidos
¿Qué espera el usuario? Respuesta a sus Información en tiempo y
preguntas forma y acciones
¿Cómo se ha hecho hasta Creación de contenido Principalmente creando
ahora? HTML y consumo de contenido
contenido
IoT es la intersección y relación simbiótica de lo físico con lo digital.
El alcance va desde Wearables (relojes, celulares, etc) hasta casas, ciudades e
industrias.
IoT se aplica con sensores de reducido tamaño, menor costo y bajo consumo de
energía.
Mayor impacto → sector automotriz, construcción, ciudades, transporte, energía y
salud.
Componentes de IoT
▪ Cosas físicas
▪ Canales de comunicación/conectividad: Combinaciones de protocolos
utilizados en internet y soluciones de conectividad para transferir datos.
▪ Software y Servicios: Reciben, procesan, guardan y analizan datos
provenientes de cosas u otros dispositivos
▪ Operaciones. DevOps: Aplicaciones desarrolladas a medida para la operación.
Son los recursos para desarrollo y éxito de las operaciones de IoT en
combinación con el acceso a la Infraestructura de “La Nube”
▪ Datos
“Things” o dispositivos
Deben tener:
Identidad única
Capacidad de conectarse con otros dispositivos
Auto alimentado o baterías de larga duración
Capacidad de ejecutar comando de control
Pueden ser:
• Objetos inteligentes
• Sensores
• Actuadores
• Centro de control
El dispositivo puede:
✓ Solo sensar una función y enviar datos crudos al centro de control
✓ Combinar datos de varios sensores, analizar datos locales y tomar acción.
✓ Cerebro: provee control local o toma de decisiones. Microcontrolador.
✓ Conectividad: comunicar datos a controles externos.
Software y Servicios
The Cloud: Se refiere al almacenamiento de datos fuera de nuestros dispositivos.
Los Cloud servers residen en data centers.
Las compañías no tienen que administrar los servidores físicos y apps.
SAAS (Software como servicio): permite a los usuarios conectarse a aplicaciones
basadas en la nube a través de Internet y usarlas.
PAAS (Plataforma como servicio): es un entorno de desarrollo e implementación
completo en la nube, con recursos que permiten entregar todo, desde aplicaciones
sencillas basadas en la nube hasta aplicaciones empresariales sofisticadas
habilitadas para la nube. Uno le compra los recursos que necesita a un proveedor de
servicios en la nube, a los que accede a través de una conexión segura a Internet
pero solo paga por el uso que hace de ellos.
IAAS (Infraestructura como servicio): la compañía renta servers y almacenamiento.
Usa los servicios de infraestructura para construir las apps, pero usan sus propias
herramientas para el desarrollo.
Procesamiento de datos
❖ Aplica lógica a los mensajes entrantes e invoca acciones en tiempo real.
❖ Procesa mensajes simultáneamente en cualquier orden.
❖ Maneja multi protocolos de distintos dispositivos
Almacenaje de datos
La base de datos debe manejar grandes volúmenes de datos sin comprometer la
performance y ser NoSQL (Not Only SQL – libres de esquemas)
Análisis de datos
Correr algoritmos de análisis en tiempo real y machine learning.
Análisis predictivos de comportamientos, visualizar tendencias, desvíos y alarmas.
Aplicación IoT
Tres funciones críticas:
1. Interacción humana con el Sistema IoT - Interfaz de Usuario (UI)
2. Permite visualizar datos
3. Mecanismo para data analytics
RPA
Es la automatización de procesos mediante un software que corre en una
computadora (robot) e interactúa con el ecosistema de la misma forma que lo hace
una persona física.
¿Cuándo aplicar RPA?
Características del proceso:
• Altamente manual y repetitivo
• Basado en reglas
• Input estándar y legibles
• Bajo índice de excepciones
• Alto volumen transaccional
• Sin impacto significativo en sistemas (no es invasivo en los sistemas actuales)
Rápida implementación
No requiere una fuerte inversión
Recuperación del ROI en el corto plazo
Flexibilidad
Adaptabilidad a distintos entornos
Impacto mínimo en las tecnologías existentes
Mejora la productividad
Recursos se focalizan en actividades de valor agregado
Mejora la calidad y el control
Eliminación de errores humanos
Mayor adherencia a estándares
Reducción de costos/tiempo
METODOLOGÍA ESOAR (la que utiliza Capgemini)
Eliminar todas aquellas actividades que sean innecesarias que afectan costo, E
tiempo y esfuerzo.
Estandarizar procesos y pasos similares, a través de las mejores prácticas y S
utilizando templates construidos.
Optimizar procesos limitando la customización y optimizar el panorama IT O
existente para maximizar sus capacidades.
Automatizar el proceso estandarizado utilizando las mejores herramientas. A
Robotizar transacciones repetitivas y basadas en reglas. R
UiPath Studio UiPath Orchestrator UiPath Robots
Diseñador Conductor Ejecutor
Aplicación de escritorio Plataforma de servidor que Servicio de Windows que
que permite a usuarios permite la gestión de ejecuta instrucciones
diseñar con herramientas procesos. automáticas
intuitivas, no con códigos
Ejercicio clase
Proyecto: Organización
Activities: módulos pre programados que cubren determinadas funcionalidades
Manage Packages: diferentes librerías
Assign: Asignación de un valor a una variable
Flowchart: van a definir la estructura condicional del proceso
Secuencia: las tareas puntuales
Debug: el desarrollador va viendo como se comporta el robot en determinadas
situaciones
Variables: uso interno dentro de xaml
Argumentos: permiten interacción desde afuera
Imports: contienen todas las clases y funcionalidades que se pueden ir importando al
robot.
Scope: es el alcance que tiene una variable en el entorno que está siendo ejecutada.
Generalmente va a tener el nombre en la secuencia donde estés parado.
Lo primero que se hace es abrir el main e importar un flowchart.
Para leer el Excel, se crea una nueva secuencia: ReadExcelFile. El ReadExcelFile va a
recibir un argumento que es el path del Excel (In) y nos va a devolver una tabla con
los alumnos (Out). Hay que cambiar el tipo de dato de salida para que nos pueda
devolver una tabla (Data Table).
Como tiene que leer un archivo Excel, tenemos que agregar un Excel Application
Scope y ponemos pathExcel. Para leerlo, se pone un Read Range (poner el de Excel) y
lo ponemos dentro del scope. En output del Read Range seteamos una variable en
Data Table que se llama excelData.
Después ponemos un Filter Data Table dentro del Excel Scope y filtramos según el
criterio que corresponda y ponemos los inputs y los outputs. Después, vamos al main
e insertamos el Read Excel File en el flowchart. Importamos los argumentos y en el
path copiamos el path del Excel.
Ponemos una condición para ver si tiene registros. En el caso que sea Falso,
ponemos un log message (para ver qué camino fue siguiendo el robot).
Creamos para la parte verdadera, una secuencia que sea LoadToGoogleForms y le
ponemos de argumento la StudentsTable. Lo ponemos en el flowchart y le ponemos
un log message que diga “alumnos cargados” para entender que se terminó el
proceso.
Volvemos al LoadToGoogleForms y creamos un open browser. Además, creamos otro
argumento que sea url. Vamos al main e importamos el argumento url con el link del
forms. Guardamos y volvemos al Load. Ahí creamos un For Each Row para iterar en
la tabla. Ponemos un type into dentro del for para que escriba el Nombre
(student(“Nombre”).ToString). Hacemos lo mismo con apellido.
ALTERYX
INTELLIGENT AUTOMATION
INNOVACIÓN
Digital es el new normal
Activos físicos parte del siglo XX
Ser mejores en comprender y reaccionar a los cambios exponenciales.
La inteligencia artificial va a aumentar la productividad y va a generar $15.7 trillones
de USD.
Revoluciones:
Todos queremos tener una buena experiencia con cualquier transacción que hagamos
→ economía de la experiencia
Las economías de hoy son economías sin inventarios.
DIGITAL TRANSFORMATION
La transformación digital no es digital, tiene que ver con cultura, change
management, etc.
Esto es transformación digital:
1. Procesos: habilidad para cambiar
2. Big Data
3. Analytics: toda la empresa viendo la misma foto
4. Automatización
5. Inteligencia artificial
Fenómeno de Data Deluge (Diluvio de Data): tenemos más data que poder
computacional. Tenemos más data que la que podemos procesar.
Las 4 Vs de Big Data
1. Volumen 3. Velocidad
2. Variedad 4. Valor (por otro lado)
Timing para decisiones = 40% - 60%
Por arriba del 60%, si bien vas a tomar una decisión más acertada, te va a ganar la
competencia.
5 estados en la maduración digital:
1. Negación
2. Aceptación: aceptó el cambio que está ocurriendo, pero carece de una visión
clara del futuro y de cómo adaptarse.
3. Adaptativo: Ha alineado los objetivos empresariales y de IT para crear
productos digitales y las experiencias del cliente.
4. Transformador:
5. Disruptor:
INTELLIGENT AUTOMATION
Un software que imita el comportamiento de un usuario final siguiendo sus reglas de
comportamiento, incluidas las acciones físicas y cognitivas, para potenciar la
automatización rápida de los procesos empresariales de extremo a extremo.
Tipos de automatización:
1. RPA
2. Cognitive Automation
3. Social Robotics: robots tipo Boston Dynamics
Tareas compatibles con la automatización:
• Repetitivo vs. variable: Lo repetitivo va con RPA y lo variable con algo más
cognitivo
• Independiente vs. interactivo
• Físico vs. mental
Cross industry standard process for data mining
Una metodología que se usa en data mining
ALTERYX
Tiene diferentes módulos Cognitivo, Prescriptivo, Espacial, Predictivo
El primer escalón es preparar los datos. Lo que más tarda es limpiar y masajear la
data.
Podés usar todo tipo de base de datos
TOOLS
INPUT DATA
Pone los datos en el workflow conectándolo con una database.
Se selecciona qué tipo de datos hay que importar.
TEXT INPUT
Insertar datos ya convertidos. Ejemplo: insertar datos de social media y convertirla en
texto para injertarla en estos modelos.
BROWSE
Se conecta al final de cada una de estas herramientas para ver como se va
convirtiendo la data.
SELECT
Convertir la data y masajear la data.
FILTER: Split data
SORT: herramienta para ordenar
SAMPLE: limitar la data a una muestra
TEXT TO COLUMNS: separa texto en filas o columnas
UNION: unir diferentes data sets.
JOIN: intersección entre dos data sets
FORMULA: agregar una función
OUTPUT DATA: donde vamos a escribir esa data
SUMMARIZE: agrupar, sumar, contar, promedios, medias
TRANSPONSE: trasponer
DYNAMIC RENAME: convertir el dato
MULTI ROW FORMULA: transformar datos en base a datos que teníamos antes.
DATA CLEANSING: limpieza básica de los datos. Eliminar caracteres que no nos
sirven.
RECORD ID: identificar las filas, por ejemplo
JOIN MULTIPLE: combinar muchos inputs con un campo común y tiene un solo output.
Una vez que hicimos el blending viene la parte predictiva, después podés generar
pronósticos (Time series) y después se aplica el modelo.
AUTO FIELD/CAMPO AUTOMÁTICO: analiza la herramienta que entra y en base a eso,
convertirlo o sugerir otro tipo de datos.
CHATBOTS
Software que integra inteligencia artificial diseñado para simular una conversación
con una persona mediante respuestas automáticas. Se lo puede programar para
realizar determinadas tareas como marcar una fecha en un calendario o hacer una
reserva en un restaurant sin intervención humana.
4 tipos de bots:
Informativo: descubren información útil y resuelven consultas de clientes y empleados.
Productividad: Los empleados pueden interactuar con estos bots para, por ejemplo,
verificar ventas números, determinar el rendimiento de campañas de marketing o
monitorear el estado del inventario.
Transaccional: sirven como interfaces potentes para aplicaciones móviles a través de
los cuáles los clientes pueden pedir comida, reservar boletos, etc. Bots con mayor
capacidad de crecimiento.
De control: Admiten interfaces conversacionales que permiten a dispositivos
conectados como dispositivos portátiles, electrodomésticos y vehículos interactuar
entre sí, enriqueciendo la experiencia del usuario.
✓ Tiempos de respuestas inmediatos
✓ Obtención de datos en forma amigable
✓ Valor diferencial con la competencia
✓ Bajas barreras de ingreso
✓ Ahorro en costos operativos
✓ Mejora de la experiencia del empleado (modelos híbridos de atención)
LIMITACIONES DE LOS CHATBOTS
Falta de datos de aprendizaje
Poco entendimiento conversacional
Dificultad para crear un atractivo global
Normativa de protección de datos
MANEJO ADECUADO DEL NLP (PROCESAMIENTO DEL LENGUAJE NATURAL): Cuando
un usuario hace una pregunta al chatbot, tiene en mente un objetivo previsto. En el
diseño del chatbot, este objetivo se llama intento. El uso adecuado de keywords es
fundamental para lograr éxito en este procesamiento.
NLP: estudia las interacciones mediante uso del lenguaje natural entre los seres
humanos y las máquinas. Se centra en el procesamiento de las comunicaciones
humanas, dividiéndolas en partes, e identificando los elementos más relevantes del
mensaje. Con la Comprensión y Generación de Lenguaje Natural, busca que las
máquinas consigan entender, interpretar y manipular el lenguaje humano.
Más confiable va a ser el chatbot cuanto más se aumente la variedad y cantidad de
sus frases.
Es importante personalizar el chatbot (personalidad y voz) para que los usuarios no
creen su propia persona en base a sesgos personales.
Aumentar el tiempo de espera de los mensajes es útil para simular el tipeo y hacer
que el bot parezca más humano, además de darle tiempo al usuario para leer.
La forma de manejarse cuando el bot no entienda lo que dice el usuario tiene impacto
en la percepción que este tendrá del bot.
TIDIO SOFTWARE – TIPOS DE NODOS
Disparadores: un nuevo flujo de trabajo siempre tiene que comenzar con un disparador,
algo que el visitante debe hacer para iniciar esta automatización en particular.
Acciones: las acciones deben conectarse en orden cronológico. Línea que los conecta
debe dibujarse de la acción a la reacción que sigue.
Condiciones: Manejan el flujo evaluando un dato
APA
Analytic process automation is the intelligent automation of data access, advanced
analytics and business processes with the use of analytic algorithms and machine
learning made easily accessible to anyone. APA platforms must provide self service
capabilities that simplify diagnostic, predictive, prescriptive, and location/geospatial
analytics.
La Automatización de procesos analíticos (APA) es la tecnología que permite que
todos en tu organización puedan compartir datos fácilmente, automatizar procesos
tediosos y complejos y transformar datos en resultados.
LOS CUATRO PRINCIPIOS DE APA
1. Del descubrimiento de los datos al descubrimiento de la automatización
El descubrimiento de los datos era la tarea que más tiempo y recursos
consumía. Ahora, se está moviendo del descubrimiento de datos manual al
descubrimiento automático de datos críticos en cualquier formato.
2. Del autoservicio al servicio automático
Las plataformas de APA mueven el paradigma del servicio un paso más allá al
automatizar el conocimiento, las recomendaciones de activación automática y
la automatización de procesos comerciales. Estas plataformas automatizan la
entrega de información mediante el aprendizaje automático para identificar y
recomendar información nueva y relevante, no detectable por medios
humanos.
3. De la codificación manual a la generación automática
Las soluciones “code-first” que dependen de notebooks y Python se
convirtieron en barreras de entrada para las organizaciones que desean
mejorar sus programas de análisis y mejorarlos para obtener mejores
resultados comerciales. APA cambia el paradigma analítico de la dependencia
en el código de la ciencia de datos hacia la generación automática de modelos
y algoritmos sin código.
4. Del conocimiento integrado al proceso automático
APA va más allá de la analítica integrada al ofrecer información y activar
acciones a través de bots automáticamente.
RPA automatiza tareas repetitivas via bots, mientras que APA automatiza procesos de
negocios centrados en datos que incluyen data tasks, steps y algoritmos de data
science. Ej: pronosticar la demanda y automatización de supply chain, optimización de
las ventas, etc.
Uno de los beneficios más grandes de APA es que las personas están libradas de la
recolección, preparación y manejo manual de datos en los procesos data-driven.
El acceso a los datos y la preparación es una experiencia “drag- and- drop”,
facilitando el acceso y preparación de datos desde diversas fuentes y aplicaciones de
la empresa, tanto interno como externo.
El propósito del acceso y preparación de datos integrados en una plataforma APA es
optimizar y automatizar la canalización de datos. La plataforma APA tiene que
automatizar los resultados comerciales directo en aplicaciones en una variedad de
formatos de salida.
APA automatizan totalmente el proceso.
SIMULACIÓN
Evaluación de distintos escenarios, de cosas que existen y ver “que pasa si” y de
cosas que no.
MODELADO DE SIMULACIÓN
Permite experimentar con una representación digital válida de un sistema.
Resuelve problemas del mundo real de manera segura y eficiente.
• Entorno libre de riesgo: forma segura de explorar y probar diferentes
escenarios de “qué pasaría si”
• Insight into dynamics: Permite observar el comportamiento del sistema a lo
largo del tiempo.
• Ahorre dinero y tiempo: modelos de simulación son menos costosos y toman
menos tiempo.
• Visualización: se pueden animar en 2D/3D, lo que permite verificar conceptos
de ideas más fácilmente.
• Manejo de incertidumbre: la incertidumbre en tiempos de operación y el
resultado se pueden representar fácilmente en modelos de simulación
• Precisión aumentada: puede capturar muchos más detalles que un modelo
analítico, proporcionando mayor precisión y pronósticos más precisos.
Los modelos de simulación sirven en aquellos procesos que tienen alta variabilidad.
Para un mismo input se obtiene un abanico de resultados, teniendo en cuenta la
estocasticidad del sistema.
Cuando no tenés datos, como pasó con el COVID, empezás a usar modelos basados en
supuestos.
Son modelos que ayudan en la toma de decisiones
¿POR QUÉ SIMULACIÓN?
Permite crear un modelo virtual libre de riesgos, permitiendo reflejar las respuestas
del sistema ante intervenciones que no pueden ser llevadas a cabo de forma directa.
Permite abarcar lógicas, restricciones y aleatoriedades que agregan complejidad al
sistema.
PARADIGMAS DE SIMULACIÓN Y SIMULACIÓN MULTIPARADIGMA
Discrete event modeling: principalmente en niveles operativos y tácticos, como
procesos de fabricación y evaluación de inversiones en equipos. (fábrica
operando)
Agent based modeling: en todos los niveles. Agentes de cualquier entidad
activa. (poblaciones, circuito operando)
System dynamics: alto nivel de abstracción y problemas de nivel estratégico
(ej: modelos económicos, epidemias, saco un nuevo producto y quiero ver
como va a ser el mercado)
Modelado multiparadigma →integra los diferentes métodos, creando modelos
eficientes y más manejables. Para casos complejos, es conveniente describir las
partes de un sistema con diferentes paradigmas.
Hay que abstraerse y empezar a hacer cortes para decidir qué paradigma voy a
utilizar.
La mayoría de los casos del mundo real son complejos, y es conveniente describir
diferentes partes de un sistema con diferentes paradigmas.
Ejemplo:
Eventos discretos: almacén (cada planta si la miramos con lupa)
Basado en agentes: red de distribución (red de plantas que se relacionan entre sí)
Dinámica de sistemas: el mercado
DIGITAL TWINS APLICADOS A SUPPLY CHAIN
Digital twin: modelo que replica tal cual un proceso, una máquina, etc.
Beneficios:
Reducción de costos
Ganar eficiencia y entendimiento de los procesos
Manejar incertidumbre
Manejar complejidad
Ambiente libre de riesgos
TODO SE BASA EN DATOS
Cloud: dejar de tener tus servidores sino que pagás para tenerlo en la nube. Permite
tener muchos más datos y son mucho más potentes.
Muchos modelos de machine learning ahora se pueden entrenar en cloud.
No todas las industrias requieren un digital twin, es efectivo cuando:
✓ Es demasiado caro o riesgoso hacer pruebas en vivo
✓ Grandes cambios o complejos
✓ Donde es importante predecir variabilidad del proceso
✓ Donde la toma de decisiones debe ser precisa
✓ Cuando los datos están incompletos
✓ Cuando es necesario comunicar ideas y resultados
ARQUITECTURA: ECOSISTEMA DE UN DIGITAL TWIN
Con los datos,
conceptualizamos el
proceso, pasando de
un problema real a un
modelo conceptual.
Con el modelo y los
datos que tenemos,
programamos el
modelo de simulación.
Se lleva el modelo
matemático a lenguaje computadora y lo único que queda es cambiarle los inputs.
No hay modelos de digital twins o de simulación que sirvan para diferentes cosas sino
que servirá para UN SOLO OBJETIVO.
PROCESO DE DESARROLLO
1. Fase de descubrimiento: Identificación rápida del objetivo principal, el alcance
y los diferentes KPIs.
2. Modelado conceptual: Diseñar el modelo conceptual, teniendo en cuenta los
procesos de limpieza de datos necesarios y los escenarios hipotéticos
3. Desarrollo del digital twin: Adaptar el modelo, redefinir los parámetros de
simulación y comenzar la implementación de escenarios hipotéticos.
4. Validación y verificación: Recopilación de resultados y verificación del modelo
5. Escenarios What-if: Evaluación de impacto de cada escenario definido