(11-10-22) UNIDAD 5 ADMINISTRACIÓN DE PROYECTOS
ADMINISTRACIÓN DE PROYECTOS
Conceptos Iniciales
Proyecto: Entendemos que un proyecto son un esfuerzo y una planificación dentro de un límite definido de
tiempo, que se realizan para lograr un resultado único.
Trabajo operativo (o proceso): Es “efectuar permanentemente actividades que generan un mismo producto o
proveen unservicio repetitivo” (Lledó, 2013, p.21).
Un trabajo puede ser un proyecto o un trabajo operativo, dependiendo de las características que posea ese
trabajo. Para poder entender las diferencias, vamos a enumerar las características principales que poseen estos
dos conceptos.
Características Proyecto Trabajo operativo
Realización Son realizados por personas
Similitudes Restricciónes Restringido por la limitación de recursos
Control Son planificados, ejecutados y controladas
Periodicidad Son realizada única vez Trabajo repetitivo
Diferencias Objetivo Lograr el resultado y finalizado Operación continua del negocio
Resultado Producto o servicio único Producto o servicio estandarizado
La importancia de la Administración de Proyectos
Hay una tasa muy alta de fracaso entre los proyectos de sistemas de información.
Es común que los proyectos requieran mucho más tiempo y dinero para implementarse de lo planificado, o el
sistema terminado no funcione de manera apropiada.
Cuando un sistema no cumple con las expectativas o su costo es demasiado alto, las compañías tal vez no
obtengan beneficio de su inversión y quizás el sistema no resuelva los problemas para los que se diseñó.
El desarrollo de un nuevo sistema se debe administrar con cuidado; es probable que la forma de ejecución del
proyecto sea el factor más importante que influye en su resultado.
Por lo expuesto es esencial tener conocimiento sobre administración de y las razones por las que tienen éxito
o fracasan.
Proyectos fuera de control y falla del sistema
Se subestima la mitad de los proyectos del sector privado en términos del presupuesto y tiempo requeridos para
entregar el sistema completo que se prometió en el plan.
Muchos proyectos se entregan con una funcionalidad incompleta (con la promesa de completar todo en las
versiones posteriores).
La consultoría de Standish Group descubrió que sólo el 29% de las inversiones en tecnología se completaban a
tiempo, dentro del presupuesto y con todas las características y funciones que se habían especificado en un
principio.
Entre el 30 y el 40% de todos los proyectos de software son proyectos “fuera de control”. (Que no está en mi mano y
lo termina abandonado)
Por lo general, los proyectos de información fracasados no se utilizan en la forma en que se esperaba, o no se
usan.
Tal vez el sistema no capture los requerimientos esenciales o mejore el desempeño organizacional. Quizás la
información no se proporcione con la suficiente rapidez como para que sea de utilidad, tal vez se encuentre en
un formato imposible de entender.
Un proyecto sin una administración apropiada puede sufrir estas consecuencias:
Costos que exceden los presupuestos por mucho
Desfasamiento inesperado de tiempo
Desempeño técnico más bajo de lo esperado
Incapacidad de obtener los beneficios anticipados
Sin una administración apropiada, un proyecto de desarrollo de sistemas tarda más en completarse y la mayoría
de las veces excede el presupuesto asignado.
Es muy probable que el sistema de información resultante sea inferior en el sentido técnico y tal vez no pueda
demostrar ningún beneficio para la organización.
Video de clase: [Link]
Objetivos de la Administración de Proyectos
Un proyecto es una serie planeada de actividades relacionadas para lograr un objetivo de negocios específico.
Tiene un inicio y un fin. No es repetitivo en el tiempo.
Los proyectos implican el desarrollo de nuevos sistemas de información, la mejora de sistemas existentes, o tal
vez la actualización o reemplazo de la infraestructura de TI.
Administración de proyectos es la aplicación de conocimiento, habilidades, herramientas y técnicas para lograr
objetivos específicos dentro del presupuesto especificado y las restricciones de tiempo establecidas.
Actividades: planificar el trabajo, evaluar el riesgo, estimar los recursos, organizar, adquirir recursos humanos y
materiales, asignar tareas, dirigir actividades, controlar la ejecución del proyecto, informar sobre el progreso y
analizar los resultados.
Cinco variables principales: Alcance, tiempo, costo, calidad y Riesgo
Alcance: define qué trabajo se incluye o no en un proyecto (se debe asegurar que el alcance no se expanda más
allá de lo que estaba planeado). Debe estar bien definido
Tiempo: lapso requerido para completar el proyecto.
Costo: se basa en el tiempo para completar un proyecto, multiplicado por el costo de los recursos humanos
requeridos para finalizar ese proyecto. Se considera el costo del hardware, software y el espacio de trabajo. La
administración de proyectos desarrolla un presupuesto para el proyecto y monitorea los gastos continuos del
mismo.
Calidad: es un indicador de qué tan bien cumple el resultado final de un proyecto con los objetivos
especificados. La calidad también considera la precisión y actualidad de la información producida por el nuevo
sistema, además de su facilidad de uso.
Riesgo: se refiere a problemas potenciales que amenazan el éxito de un proyecto. Estos problemas podrían
evitar que un proyecto logre sus objetivos al incrementar el tiempo y el costo, reducir la calidad de los resultados
del proyecto o evitar que éste se complete. Evaluar
Control Gerencial de los Proyectos
Grupo corporativo de planeación estratégica
Gerenci
a de
nivel
superio Comité de dirección de SI
r
Gerencia en el nivel medio Gerentes de Proyecto
Gerencia operacional
Equipo del Proyecto
Grupo corporativo de planeación estratégica: responsable de desarrollar el plan estratégico, que puede requerir
el desarrollo de nuevos sistemas.
Comité de Dirección: grupo gerencial de nivel superior con la responsabilidad del desarrollo y la operación de los
sistemas. Son los jefes de departamento de las áreas tanto de los usuarios finales como de sistemas de
información. Revisa y aprueba los planes. Busca coordinar e integrar sistemas y en ocasiones se involucra en la
selección de proyectos específicos.
Gerentes de Proyecto: supervisan al equipo de cada proyecto. Está compuesto por gerentes de sistemas de
información y gerentes de usuarios finales responsables de supervisar varios proyectos específicos de sistemas
de información.
Equipo de Proyecto: Cada equipo es el responsable directo de un proyecto individual. Está formado por analistas
de sistemas, especialistas relevantes de las áreas de negocios de los usuarios finales, programadores y tal vez
especialistas de bases de datos.
Vinculación de Proyectos con el Plan de Negocios
Para identificar proyectos que puedan ofrecer el mayor valor de negocios, se debe desarrollar un plan de SI que
apoye su plan de negocios en general y en el que se incorporen los sistemas estratégicos a la planeación de nivel
superior.
El plan indica la dirección del desarrollo de sistemas (propósito), fundamento, situación actual, nuevos
desarrollos, estrategia gerencial, el plan de implementación y el presupuesto.
El plan contiene una declaración de los objetivos estratégicos y especifica el tipo de apoyo que ofrecerá la
tecnología de la información para lograrlos.
El informe muestra cómo se lograrán los objetivos generales por medio de proyectos de sistemas específicos.
Identifica las fechas límite y los hitos para evaluar el avance del plan.
Indica decisiones gerenciales clave: hardware, telecomunicaciones, centralización / descentralizaciónde la
autoridad, datos, cambio en procesos de negocio y cambio organizacional.
Se debe desarrollar un conjunto de medidas para cuantificar el valor de la información más oportuna y precisa
sobre el resultado de la decisión.
Factores críticos de éxito (CSF)
(18.10.22) Análisis de Cartera
El análisis de cartera realiza un inventario de todos los proyectos y activos de sistemas de información de la
firma, que abarca infraestructura, contratos de outsourcing y licencias
Podemos describir esta cartera de inversiones en sistemas de información como algo que presenta cierto perfil
de riesgo y beneficio para la firma, de manera similar a una cartera financiera.
Cada proyecto de sistemas de información acarrea su propio conjunto de riesgos y beneficios, por lo que se debe
tratar de balancear el riesgo y el rendimiento de las inversiones en sistemas.
No hay un perfil ideal para todas las empresas, pero en las que se usa mucha información debiera haber algunos
proyectos de alto riesgo y muchos beneficios para poder estar al actualizados en la tecnología.
Se debe examinar los sistemas con muchos beneficios y alto riesgo; evitar los sistemas de alto riesgo por
completo; y reexaminar los sistemas con pocos beneficios y riesgos en cuanto a la posibilidad de reconstruirlos y
reemplazarlos con sistemas más deseables que tengan mayores beneficios.
Empresas que no usan mucha información deben enfocarse en proyectos con mucho beneficio y bajo riesgo.
Son más deseables los sistemas con muchos beneficios y bajo nivel de riesgo. La gerencia puede terminar la
mezcla óptima de riesgo en inversión y recompensa, mediante un balance entre proyectos más riesgosos con
mayores recompensas y los más seguros pero con menos recompensas.
Las empresas en donde el análisis de cartera se alinea con la estrategia de negocios tienen un rendimiento
superior sobre sus activos de TI, una mejor alineación de las inversiones con los objetivos de negocios, y una
mejor coordinación en toda la organización en cuanto a las inversiones.
Modelos de Puntuación
Útiles para seleccionar proyectos donde hay que considerar muchos criterios. Asigna ponderaciones a las
diversas características de un sistema y luego calcula totales ponderados.
A menudo el resultado más importante de un modelo de puntuación no es la puntuación, sino el acuerdo en
cuanto a los criterios utilizados para juzgar un sistema.
Este modelo requiere expertos que comprendan las cuestiones y la tecnología.
Es apropiado repasar el modelo de puntuación varias veces, modificando criterios y ponderaciones para ver qué
tan sensible es el resultado a cambios razonables en los criterios.
El uso más común de los modelos de puntuación es para confirmar, racionalizar y apoyar las decisiones, en vez
de utilizarlos como árbitros finales de la selección del sistema.
Costos y Beneficios de los SI
Aunque un proyecto apoye los objetivos estratégicos y cumpla con los requerimientos de información para los
usuarios, también necesita ser una buena inversión.
El valor de los sistemas desde una perspectiva financiera gira alrededor del rendimiento sobre el capital
invertido.
Es posible cuantificar los beneficios tangibles y asignarles un valor monetario.
Los beneficios intangibles, como un servicio al cliente más eficiente o la toma de decisiones mejorada, no se
pueden calcular de inmediato pero pueden producir ganancias a largo plazo.
Los sistemas de transacciones y de oficina que reemplazan a la fuerza laboral y ahorran espacio producen
beneficios más medibles y tangibles que los sistemas de información gerencial, los sistemas de soporte de
decisiones y los de trabajo colaborativo asistidos por computadora
TAREA: Leer del libro de Laudon la lista de beneficios tangibles e intangibles.
BENEFICIOS TANGIBLES (AHORROS EN COSTO) BENEFICIOS INTANGIBLES
Aumento en la productividad Mejora en el uso de los activos
Costos operacionales más bajos Mejora en el control de los recursos
Reducción en la fuerza laboral Mejora en la planificación organizacional
Menos gastos en computadoras Aumento en la flexibilidad organizacional
Reducción en costos de distribuidores Información más oportuna
externos Más información
Reducción en costos de oficina y Aumento en el aprendizaje organizacional
profesionales Requerimientos legales logrados
Tasa reducida de crecimiento en los gastos Mejora en la buena voluntad de los empleados
Costos de instalación reducidos Aumento en la satisfacción laboral
Mejora en la toma de decisiones
Mejora en las operaciones
Mayor satisfacción del cliente
Mejor imagen corporativa
Presupuesto de Capital para los SI
El costo total de propiedad (TCO) identifica y mide los componentes de los gastos en tecnología de información
que van más allá del costo inicial de comprar e instalar hardware y software.
Solo provee una parte de la información necesaria para evaluar una inversión, ya que por lo general no involucra
beneficios, costos de complejidad, además de los factores “blandos”.
Para determinar los beneficios de un proyecto específico es necesario calcular todos sus costos y sus beneficios.
Un proyecto en el que los costos exceden a los beneficios debería rechazarse. Aún si los beneficios sobrepasan a
los costos, se requiere un análisis financiero adicional para determinar si el proyecto representa un buen
rendimiento sobre el capital invertido.
Los modelos de presupuesto de capital son una de las diversas técnicas que se utilizan para medir el valor de
invertir en proyectos de inversión de capital a largo plazo.
El costo de inversión para proyectos de sistemas de información es un flujo de salida de efectivo inmediato,
provocado por los gastos relacionados con el hardware, el software y la mano de obra.
En los años subsiguientes, la inversión puede provocar flujos de salida de efectivo adicionales, que se
balancearán mediante los flujos de entrada de efectivo que resulten de la inversión.
Principales modelos de presupuesto de capital para evaluar proyectos de TI: método de recuperación, la tasa
contable de rendimiento sobre la inversión (ROI), el VAN y la TIR.
Limitaciones de los modelos financieros
El enfoque tradicional en los aspectos financieros y técnicos de un sistema de información tiende a pasar por
alto las dimensiones tanto sociales como organizacionales de los sistemas de información que pueden afectar en
los verdaderos costos y beneficios de la inversión.
Las decisiones de inversión en sistemas de información de muchas compañías no consideran de manera
adecuada algunos costos:
Interrupciones en la organización que se crean a causa de un nuevo sistema
Costo de capacitar a los usuarios finales
Impacto del aprendizaje de los usuarios en relación con la productividad
Tiempo de los gerentes para supervisar los cambios relacionados con el nuevo sistema.
También existe la posibilidad de pasar por alto beneficios:
Decisiones más oportunas gracias a un nuevo sistema
Mejora en el aprendizaje y la pericia de los empleados.
Administración del Riesgo – Dimensiones
Algunos proyectos de desarrollo de sistemas tienen mayores probabilidades de crear problemas, o de sufrir
retrasos debido a que conllevan un nivel de riesgo mucho más alto que otros proyectos.
El nivel de riesgo del proyecto se ve influenciado por su tamaño, su estructura y el nivel de pericia técnica del
personal de sistemas de información y el equipo del proyecto.
Tamaño del proyecto: Más grande es el proyecto, mayor será el riesgo. Los proyectos a escala muy grande
tienen una tasa de fracaso entre 50 y 75% mayor, porque son complejos y difíciles de controlar.
Estructura del proyecto: Algunos proyectos son más estructurados que otros. Son claros, se puede definir
con facilidad salidas y procesos. Los usuarios saben lo que quieren; seguramente no cambiarán de parecer.
Tienen un riesgo menor que los proyectos relativamente indefinidos, con cambios constantes y salidas que
no se fijan con facilidad sujetas a cambios o con usuarios sin acuerdo en lo que desean.
Experiencia con la tecnología: El riesgo aumenta si el equipo del proyecto carece de la pericia técnica
requerida. Si no se está familiarizado con el hardware, el software y otros aspectos, es probable que tenga
problemas técnicos o que requiera más tiempo para completarlo debido a la necesidad de dominar nuevas
habilidades.
Administración del Cambio
La introducción o cambio de un sistema de información tiene un poderoso impacto sobre el comportamiento y la
organización.
Los cambios en la forma en que se define la información, se accede a ella y se utiliza para administrar los
recursos de la organización, conducen con frecuencia a nuevas distribuciones de autoridad y poder.
Este cambio interno en la organización genera resistencia y oposición, además de que puede conducir al deceso
de un sistema que por lo demás sería bueno.
Un porcentaje muy grande de los proyectos de sistemas de información sufren tropiezos debido a que no se lidió
de manera adecuada con el proceso del cambio organizacional relacionado con la construcción del sistema.
La construcción exitosa de un sistema requiere de una administración del cambio cuidadosa.
Rol de los usuarios finales
Es común que los especialistas en sistemas tengan una orientación muy técnica. Buscan soluciones técnicas
elegantes y sofisticadas a expensas de la facilidad de uso o la efectividad organizacional.
Los usuarios prefieren sistemas orientados hacia la solución de problemas de negocios o que faciliten las tareas
organizacionales.
Problemas de comunicación entre diseñadores y usuarios finales son una de las principales razones por las que
los requerimientos de los usuarios no se incorporan de manera apropiada en los sistemas de información y del
por qué los usuarios se dejan fuera del proceso de implementación.
La implementación de un sistema se beneficia de los niveles altos de participación de los usuarios y del apoyo de
la gerencia.
Si los usuarios están muy involucrados, tienen más oportunidades de moldearlo de acuerdo a sus prioridades y
requerimientos de negocios, y pueden controlar más el resultado. Reaccionarán de manera positiva al sistema
completo debido a que han sido participantes activos en el proceso del cambio.
La relación entre los usuarios y los especialistas ha sido históricamente un área problemática a resolver.
Apoyo y compromiso de la gerencia
Con el respaldo y el compromiso de la gerencia en diversos niveles, es más probable que los usuarios y el
personal técnico perciban al proyecto de manera positiva.
Ambos grupos creerán que su participación en el proceso de desarrollo recibirá una atención y prioridad de
mayor nivel.
Es conveniente reconocer y recompensar por el tiempo y esfuerzo que se dedique a la implementación.
El respaldo de la gerencia también asegura que un proyecto reciba los suficientes fondos y recursos para tener
éxito.
Si un gerente cree que un sistema es prioridad, habrá mayor probabilidad de que sus subordinados traten al
sistema de esta forma también.
(14-10-22) UNIDAD 5 SELECCIÓN DE SOFTWARE
Muchos Proyectos de SW fracasan
Algunos de los motivos por los que un proyecto se software puede fracasar son:
Falta de compromiso de la alta dirección de la compañía
Definición incorrecta de requisitos
Expectativas que no se condicen con la realidad
Software no compatible con la estrategia de la organización
Recursos insuficientes
Malas decisiones técnicas
Subestimar el impacto que ocasionan los cambios
Problemas de liderazgo y comunicación
TIPOS DE SOFTWARE
Recordemos tipos de software:
Software de base: Conjunto de programas Software aplicación: creado para satisfacer las
complejos creados para operar, controlar, y necesidades especiales de los usuarios. Usa
extender la capacidad de procesamiento de la Software de base para su desarrollo
computadora propiamente dicha Compras
Sistemas operativos Ventas
Lenguajes de programación Contabilidad
Utilitarios Herramientas de oficina
ERP
ETC…
Sobre el software de aplicación:
Desarrollados a medida: Comprenden las necesidades particulares de una operación para la empresa a la cual está
dirigido. Queremos decir que el desarrollo se ajusta a los perfiles operativos y organizativos específicos solicitados
por la compañía. El desarrollo puede ser:
Propio
Mixto
Externo
Paquetes: Orientados a necesidades estándar en el mercado de una operación, de forma tal que pueda ser
aprovechado por muchas compañías, con pocas modificaciones o ninguna.
Pre – planeados (modificaciones leves)
Enlatados (generalmente sin modificaciones)
Sobre los paquetes de software:
Pueden reducir en un 50% o más las tareas necesarias para su uso
Se eliminan tareas de programación
Los principales problemas técnicos seguramente ya fueron resueltos por el proveedor de software
La experiencia reduce los tiempos de prueba e implantación
Puede ser que los paquetes no lleguen a cumplir todos los requisitos de la organización
De todos modos pueden adaptarse (en algunos casos) a las necesidades de la empresa
Sobre los paquetes enlatados:
Generalmente no permite adaptaciones
Se utiliza en el estado en que se encuentra, cerrado y sin posibilidad adicional
Su precio es bastante más bajo que los anteriores
Tiene éxito en Pymes que no requieran tratamiento particular de la información.
La puesta en marcha es mucho más rápida que otras alternativas
Requisitos esenciales para la selección de SW
El software a incorporar debe:
Responder a las necesidades actuales de la empresa
Encajar con la modalidad operativa adoptada
Encajar con el sistema de control interno
Ser compatible con la infraestructura tecnológica de la empresa
Obtener la aprobación de los usuarios
Tener costos inferiores a los beneficios
Propiedad del software
Algunas cláusulas importantes en los contratos de venta o provisión
Cesión de uso: el vendedor vende el derecho de uso no exclusivo. El SW no puede ser modificado ni
transferido. Se debe utilizar en el estado en el que es recibido. En general debe usarse en una sola
instalación y afectarse a operaciones de una sola empresa.
Cesión de uso ampliada: A la categoría anterior se agrega la posibilidad de contar con programas fuente y
documentación, pudiéndose realizar ciertas modificaciones solo para uso dentro de la empresa.
Propiedad: Responde al SW desarrollado a medida por encargo. El proveedor se desprende de la propiedad y
derecho sobre lo desarrollado. La propiedad pasa al comprador.
A medida que se avanza en las categorías, aumenta el precio
Precio
Dentro del precio, la modalidad comercial debe aclarar la inclusión (o no) de los siguientes servicios:
La provisión de todos los módulos necesarios para que el sistema funcione.
Las instalación del SW
Capacitación a usuarios
Servicio post venta de mantenimiento
Costo aproximado de futuras actualizaciones
Condiciones especiales en caso de compra posterior de módulos adicionales
Documentación y Programas Fuente
Documentación:
Externa: Manuales de instrucciones
Interna: Diagramas globales
Programas fuente:
En el caso de diseños a medida o SW pre-planeado, se Sugiere solicitar al proveedor que proporcione los
Programas fuente para eventuales modificaciones Internas.
Diseño modular
Algunos beneficios del diseño en módulos:
Divide la complejidad del sistema en unidades manejables
Adecuada especialización (cada aspecto específico es tratado en un único lugar)
Se puede prescindir de módulos que no sea necesario contratar
Cuando está bien diseñados, se logra una adecuada integración
Ejemplo módulos de SAP:
FI: Financial Accounting. Modulo financiero, contabilidad, presupuestos, etc.
SD: Sales & Distribution: Todas las operaciones comerciales.
HR: Todo lo relacionado con RRHH, planes de carrera, análisis de puestos, etc.
PS: Proyect System. Planeamiento, proyectos, estrategia.
Parametrización
Algunas cláusulas importantes en los contratos de venta o provisión.
La parametrización reemplaza programación en el cuerpo principal del sistema, por valores en tablas externas.
Se utiliza primordialmente para datos que cambian con frecuencia o que son variables.
Los datos parametrizables son de fácil actualización y no requieren de modificaciones en la programación
Se extiende la vida útil del sistema
Otros aspectos
Disponibilidad de analistas y plazo de entrega: acordar estos aspectos para alineas expectativas
Servicio post venta: es muy importante. Se recomienda que esté incluido dentro de la contratación
Continuidad en la prestación del servicio: aspecto que refiere tanto al proveedor como al personal interno de la
empresa. Garantizar quién provee el servicio si, por ejemplo, el personal se desvincula de la empresa o el
proveedor desaparece del mercado. Cuanto más estándar es la solución más fácil es garantizar la continuidad
Actualización: asegurándose que las futuras actualizaciones estén incluidas en la contratación, se pueden
aprovechar las mejoras que los proveedores realizan al SW.
Referencias de usuarios: comentarios sobre la calidad, el servicio post venta y capacidad profesional (entre
otros) ayudan en la decisión de contratación
Evaluación final: la selección de software es un problema multiatributo. Por ello se recomienda realizar una
ponderación según la importancia de ese atributo.
Prueba y Puesta en Marcha
Aspecto Desarrollo a medida Pre – planeado Enlatado
Pruebas anteriores Primera vez Partes comunes ya comunes Muy probado
Puesta en marcha Lenta Intermedia Rápido
21-10-22
Unidad 6 CALIDAD EN LOS SISTEMAS DE INFORMACIÓN.
¿Qué es la calidad?
David Garvin de Harvard Business School, sugiere que “la calidad es un concepto complejo y de facetas
múltiples” que puede describirse desde cinco diferentes puntos de vista:
1. El punto de vista trascendental; que la calidad es algo que se reconoce de inmediato, pero que no es posible
definir explícitamente.
2. El punto de vista del usuario; concibe la calidad en términos de las metas específicas del usuario final. Si un
producto las satisface, tiene calidad.
3. El punto de vista del fabricante; la define en términos de las especificaciones originales del producto. Si éste
las cumple, tiene calidad.
4. El punto de vista del producto; sugiere que la calidad tiene que ver con las características inherentes
(funciones y características) de un producto.
5. El punto de vista basado en el valor; la mide de acuerdo con lo que un cliente está dispuesto a pagar por un
producto.
La calidad del diseño se refiere a las características que los diseñadores especifican para un producto. El tipo de
materiales, tolerancias y especificaciones del desempeño, todo contribuye a la calidad del diseño.
En el desarrollo del software, la calidad del diseño incluye el grado en el que el diseño cumple las funciones y
características especificadas en el modelo de requerimientos. La calidad de la conformidad se centra en el grado
en el que la implementación se apega al diseño y en el que el sistema resultante cumple sus metas de
requerimientos y desempeño.
Calidad del software.
¿Cómo se define la calidad del software? En el sentido más general se define como: “Proceso eficaz de software
que se aplica de manera que crea un producto útil que proporciona valor medible a quienes lo producen y a
quienes lo utilizan”.
En función de esto ultimo necesitamos enfatizar tres puntos importantes:
1. Un proceso eficaz de software establece la infraestructura que da apoyo a cualquier esfuerzo de elaboración
de un producto de software de alta calidad.
2. Un producto útil entrega contenido, funciones y características que el usuario final desea; sin embargo, de
igual importancia es que entrega estos activos en forma confiable y libre de errores.
3. Al agregar valor para el productor y para el usuario de un producto, el software de alta calidad proporciona
beneficios a la organización que lo produce y a la comunidad de usuarios finales.
Dimensiones de la calidad de Garvin.
David Garvin sugiere que la calidad debe tomarse en cuenta, adoptando un punto de vista multidimensional que
comience con la evaluación de la conformidad y termine con una visión trascendental (estética). Menciona ocho
dimensiones de la calidad, que si bien no fueron desarrolladas específicamente para el software, se aplican a la
calidad de éste.
1. Calidad del desempeño. ¿El software entrega todo el contenido, las funciones y las características especificadas
como parte del modelo de requerimientos, de manera que da valor al usuario final?
2. Calidad de las características. ¿El software tiene características que sorprenden y agradan la primera vez que lo
emplean los usuarios finales?
3. Confiabilidad. ¿El software proporciona todas las características y capacidades sin fallar? ¿Está disponible cuando
se necesita? ¿Entrega funcionalidad libre de errores?
4. Conformidad. ¿El software concuerda con los estándares locales y externos que son relevantes para la
aplicación? ¿Concuerda con el diseño de facto y las convenciones de código?
5. Durabilidad. ¿El software puede recibir mantenimiento (cambiar) o corregirse (depurarse) sin la generación
inadvertida de eventos colaterales? ¿Los cambios ocasionarán que la tasa de errores o la confiabilidad
disminuyan con el tiempo.
6. Servicio. ¿Existe la posibilidad de que el software reciba mantenimiento (cambios) o correcciones (depuración)
en un periodo de tiempo aceptablemente breve? ¿El equipo de apoyo puede adquirir toda la información
necesaria para hacer cambios o corregir defectos?
7. Estética. No hay duda de que todos tenemos una visión diferente y muy subjetiva de lo que es estético. Aun así,
la mayoría de nosotros estaría de acuerdo en que una entidad estética posee cierta elegancia, un flujo único y
una “presencia” obvia que es difícil de cuantificar y que, no obstante, resulta evidente.
8. Percepción. En ciertas situaciones, existen prejuicios que influirán en la percepción de la calidad por parte del
usuario.
Factores de la calidad de McCall
McCall, Richards y Walters, proponen una clasificación útil de los factores que afectan la calidad del software.
Se centran en tres aspectos importantes del producto de software: sus características operativas, su capacidad
de ser modificado y su adaptabilidad a nuevos ambientes. Hacen las descripciones siguientes :
a) Corrección. Grado en el que un programa satisface sus especificaciones y en el que cumple con los objetivos
de la misión del cliente.
b) Confiabilidad. Grado en el que se espera que un programa cumpla con su función y con la precisión
requerida.
c) Eficiencia. Cantidad de recursos de cómputo y de código requeridos por un programa para llevar a cabo su
función.
d) Integridad. Grado en el que es posible controlar el acceso de personas no autorizadas al software o a los
datos.
e) Usabilidad. Esfuerzo que se requiere para aprender, operar, preparar las entradas e interpretar las salidas de
un programa.
f) Facilidad de recibir mantenimiento. Esfuerzo requerido para detectar y corregir un error en un programa.
g) Flexibilidad. Esfuerzo necesario para modificar un programa que ya opera.
h) Susceptibilidad de someterse a pruebas. Esfuerzo que se requiere para probar un programa a fin de
garantizar que realiza la función que se pretende.
i) Portabilidad. Esfuerzo que se necesita para transferir el programa de un ambiente de sistema de hardware o
software a otro.
j) Reusabilidad. Grado en el que un programa (o partes de uno) pueden volverse a utilizar en otras aplicaciones
(se relaciona con el empaque y el alcance de las funciones que lleva a cabo el programa)
k) Interoperabilidad. Esfuerzo requerido para acoplar un sistema con otro.
Factores que determinan que un sistema la calidad del software
Factores que pueden ser medidos directamente.
Factores que solo pueden ser medidos indirectamente.
Según MCCALL:
Corrección Factibilidad de uso Flexibilidad
Fiabilidad Factibilidad de Reusabilidad
Eficiencia mantenimiento Facilidad de
Integridad Factibilidad de pruebas interoperación
Portabilidad
Factores de la calidad ISO 9126
El estándar ISO 9126 se desarrolló con la intención de identificar los atributos clave del software de cómputo. Este
sistema identifica seis atributos clave de la calidad:
1. Funcionalidad. Grado en el que el software satisface las necesidades planteadas según las establecen los
atributos siguientes: adaptabilidad, exactitud, interoperabilidad, cumplimiento y seguridad.
2. Confiabilidad. Cantidad de tiempo que el software se encuentra disponible para su uso, según lo indican los
siguientes atributos: madurez, tolerancia a fallas y recuperación.
3. Usabilidad. Grado en el que el software es fácil de usar, según lo indican los siguientes subatributos:
entendible, aprendible y operable.
4. Eficiencia. Grado en el que el software emplea óptimamente los recursos del sistema, según lo indican los
subatributos siguientes: comportamiento del tiempo y de los recursos.
5. Facilidad de recibir mantenimiento. Facilidad con la que pueden efectuarse reparaciones al software, según
lo indican los atributos que siguen: analizable, cambiable, estable, susceptible de someterse a pruebas.
6. Portabilidad. Facilidad con la que el software puede llevarse de un ambiente a otro según lo indican los
siguientes atributos: adaptable, instalable, conformidad y sustituible.
Los factores ISO 9126 no necesariamente conducen a una medición directa. Sin embargo, proporcionan una base útil
para hacer mediciones indirectas y una lista de comprobación excelente para evaluar la calidad del sistema
Factores de calidad que se persiguen
Un equipo de software puede desarrollar un conjunto de características de la calidad y las preguntas asociadas
correspondientes que demuestren el grado en el que se satisface cada factor. Para hacer la evaluación, se necesita
determinar atributos específicos y medibles.
1) Intuitiva. Grado en el que la interfaz sigue patrones esperados de uso, de modo que hasta un novato la pueda
utilizar sin mucha capacitación. • ¿La interfaz lleva hacia una comprensión fácil? • ¿Todas las operaciones son
fáciles de localizar e iniciar? • ¿La interfaz usa una metáfora reconocible? • ¿La entrada está especificada de
modo que economiza el uso del teclado o del ratón? ¿La entrada sigue las tres reglas de oro? • ¿La estética
ayuda a la comprensión y uso?
2) Eficiencia. Grado en el que es posible localizar o iniciar las operaciones y la información. • ¿La distribución y
estilo de la interfaz permite que un usuario introduzca con eficiencia las operaciones y la información? • ¿Una
secuencia de operaciones (o entrada de datos) puede realizarse con economía de movimientos? • ¿Los datos de
salida o el contenido están presentados de modo que se entienden de inmediato? • ¿Las operaciones jerárquicas
están organizadas de manera que minimizan la profundidad con la que debe navegar el usuario para hacer que
alguna se ejecute?
3) Robustez. Grado en el que el software maneja entradas erróneas de datos o en el que se presenta interacción
inapropiada por parte del usuario. • ¿El software reconocerá el error si entran datos en el límite de lo permitido
o más allá y, lo que es más importante, continuará operando sin fallar ni degradarse? • ¿La interfaz reconocerá
los errores cognitivos o de manipulación y guiará en forma explícita al usuario de vuelta al camino correcto? •
¿La interfaz da un diagnóstico y guía útiles cuando se descubre una condición de error (asociada con la
funcionalidad del software)?
4) Riqueza. Grado en el que la interfaz provee un conjunto abundante de características. • ¿Puede personalizarse la
interfaz según las necesidades específicas del usuario? • ¿La interfaz tiene gran capacidad para permitir al
usuario identificar una secuencia de operaciones comunes con una sola acción o comando?
EL DILEMA DE LA CALIDAD DEL SOFTWARE
Bertrand Meyer analiza lo que se denomina el dilema de la calidad:
“Si produce un sistema de software de mala calidad, usted pierde porque nadie lo querrá comprar. Por otro lado, si
dedica un tiempo infinito, demasiado esfuerzo y enormes sumas de dinero para obtener un elemento perfecto de
software, entonces tomará tanto tiempo terminarlo y será tan caro de producir que de todos modos quedará fuera
del negocio. En cualquier caso, habrá perdido la ventana de mercado, o simplemente habrá agotado sus recursos. De
modo que las personas de la industria tratan de situarse en ese punto medio mágico donde el producto es
suficientemente bueno para no ser rechazado de inmediato, no en la evaluación, pero tampoco es un objeto
perfeccionista ni con demasiado trabajo que lo convierta en algo que requiera demasiado tiempo o dinero para ser
terminado”
Los ingenieros de software deben tratar de producir sistemas de alta calidad. Es mejor aplicar buenas prácticas al
intento de lograrlo. Pero la situación descrita por Meyer proviene de la vida real y representa un dilema incluso para
las mejores organizaciones de ingeniería de software.
Software “suficientemente bueno”
Si damos por válido el argumento de Meyer, ¿es aceptable producir software “suficientemente bueno”? La
respuesta a esta pregunta debe ser “sí”, porque las principales compañías de software lo hacen a diario.
Crean software con errores detectados y lo distribuyen a una gran población de usuarios finales. Reconocen que
algunas de las funciones y características de la versión 1.0 tal vez no sean de la calidad más alta y planean hacer
mejoras en la versión 2.0.
Hacen esto, sabiendo que algunos clientes se quejarán; reconocen que el tiempo para llegar al mercado actúa
contra la mejor calidad, y liberan el software, siempre y cuando el producto entregado sea “suficientemente
bueno”
El software suficientemente bueno contiene las funciones y características de alta calidad que desean los
usuarios, pero al mismo tiempo tiene otras más oscuras y especializadas que contienen errores conocidos.
El vendedor de software espera que la gran mayoría de usuarios finales perdone los errores gracias a que estén
muy contentos con la funcionalidad de la aplicación.
Lo “suficientemente bueno” puede funcionar en ciertos dominios de aplicación y para unas cuantas compañías
grandes de software. Después de todo, si una empresa tiene un presupuesto enorme para mercadotecnia y
convence a suficientes personas de que compren la versión 1.0, habrá tenido éxito en capturarlos.
Se debe tener cuidado con esta filosofía. Al entregar un producto suficientemente bueno (defectuoso), corre el
riesgo de causar un daño permanente a la reputación de la compañía. Tal vez nunca tenga la oportunidad de
entregar una versión 2.0 porque los malos comentarios quizá ocasionen que las ventas se desplomen y que la
empresa desaparezca.
En ciertos software incrustado en tiempo real, o software de aplicación integrado con hardware (como el
software automotriz o de telecomunicaciones), entregar software con errores conocidos es una negligencia y
deja expuesta a su compañía a litigios costosos. En ciertos casos, incluso, puede ser un delito. ¡Nadie quiere
tener software suficientemente bueno en los aviones!
El costo de calidad.
Sabemos que la calidad es importante, pero cuesta tiempo y dinero —demasiado tiempo y dinero— lograr el
nivel de calidad en el software que en realidad queremos.
No hay duda de que la calidad tiene un costo, pero la mala calidad también lo tiene —no sólo para los usuarios
finales que deban vivir con el software defectuoso, sino también para la organización del software que lo elaboró
y que debe darle mantenimiento.
¿Por cuál costo debemos preocuparnos? Para responder a esta pregunta debe entenderse tanto el costo de
tener calidad como el del software de mala calidad.
El costo de la calidad incluye todos los costos en los que se incurre al buscar la calidad o al realizar actividades
relacionadas con ella y los costos posteriores de la falta de calidad. El costo de la calidad puede dividirse en los
costos que están asociados con la prevención, la evaluación y la falla.
a) Los costos de prevención incluyen lo siguiente: 1) el costo de las actividades de administración requeridas para
planear y coordinar todas las actividades de control y aseguramiento de la calidad, 2) el costo de las actividades
técnicas agregadas para desarrollar modelos completos de los requerimientos y del diseño, 3) los costos de
planear las pruebas y 4) el costo de toda la capacitación asociada con estas actividades.
b) Los costos de evaluación incluyen las actividades de investigación de la condición del producto la “primera vez”
que pasa por cada proceso. Ejemplo: • El costo de efectuar revisiones técnicas de los productos del trabajo de la
ingeniería de software. • El costo de recabar datos y unidades de medida para la evaluación • El costo de hacer
las pruebas y depurarlas.
c) Los costos de falla son aquellos que se eliminarían si no hubiera errores antes o después de enviar el producto a
los consumidores. Los costos de falla se subdividen en internos y externos. Se incurre en costos internos de falla
cuando se detecta un error en un producto antes del envío. Los costos externos de falla se asocian con defectos
encontrados después de que el producto se envió a los consumidores.
Riesgos, Negligencia, Seguridad.
RIESGOS
La gente basa su trabajo, confort, seguridad, entretenimiento, decisiones y su propia vida, en software de
cómputo. Más vale entonces que esté bien hecho.
La implicación es que el software de mala calidad aumenta los riesgos tanto para el desarrollador como para el
usuario final.
Lo perjudicial de las aplicaciones mal diseñadas e implementadas no siempre se mide en dólares y tiempo.
La mala calidad conlleva riesgos, algunos muy serios.
NEGLIGENCIA.
En diversas ocasiones, el cliente afirma que el desarrollador ha sido negligente (en cuanto a la manera en la que
aplicó las prácticas del software), por lo que no merece el pago.
Es frecuente que el desarrollador diga que el cliente ha cambiado repetidamente sus requerimientos y
trastornado de diversas maneras los acuerdos para el trabajo.
En cualquier caso, es la calidad del sistema lo que está en entredicho.
SEGURIDAD.
A medida que aumenta la importancia crítica de los sistemas y aplicaciones basados en web, la seguridad de las
aplicaciones se ha vuelto más importante.
En pocas palabras, el software que no tiene alta calidad es fácil de penetrar por parte de intrusos y, en
consecuencia, el software de mala calidad aumenta indirectamente el riesgo de la seguridad, con todos los
costos y problemas que eso conlleva.
LOGRAR LA CALIDAD DEL SOFTWARE
La calidad del software no sólo se ve. Es el resultado de la buena administración del proyecto y de una correcta
práctica de la ingeniería de software. La administración y práctica se aplican en el contexto de cuatro actividades
principales que ayudan al equipo de software a lograr una alta calidad en éste: métodos de la ingeniería de
software, técnicas de administración de proyectos, acciones de control de calidad y aseguramiento de la calidad
del software.
1. Métodos de la ingeniería de software. Si espera construir software de alta calidad, se debe entender el problema
que se quiere resolver. También se debe ser capaz de crear un diseño que esté de acuerdo con el problema y que al
mismo tiempo tenga características que lleven al software a las dimensiones y factores de calidad deseados.
2. Técnicas de administración de proyectos. Las implicaciones de las malas decisiones administrativas son claras: Por
eso para evitarlas. 1) un gerente de proyecto usa estimaciones para verificar que las fechas pueden cumplirse, 2) se
comprenden las dependencias de las actividades programadas y el equipo resiste la tentación de usar atajos, 3) la
planeación del riesgo se lleva a cabo de manera que los problemas no alienten el caos, entonces la calidad del
software se verá influida de manera positiva.
3. Control de calidad. El control de calidad incluye un conjunto de acciones de ingeniería de software que ayudan a
asegurar que todo producto del trabajo cumpla sus metas de calidad. Los modelos se revisan para garantizar que
están completos y que son consistentes.
El código se inspecciona con objeto de descubrir y corregir errores antes de que comiencen las pruebas. Se aplica
una serie de etapas de prueba para detectar los errores en procesamiento lógico, manipulación de datos y
comunicación con la interfaz. La combinación de mediciones con retroalimentación permite que el equipo del
software sintonice el proceso cuando cualquiera de estos productos del trabajo falla en el cumplimiento de las metas
de calidad.
4. Aseguramiento de la calidad. El aseguramiento de la calidad establece la infraestructura de apoyo a los métodos
sólidos de la ingeniería de software, la administración racional de proyectos y las acciones de control de calidad,
todo de importancia crucial si se trata de elaborar software de alta calidad. El aseguramiento de la calidad consiste
en un conjunto de funciones de auditoría y reportes para evaluar la eficacia y completitud de las acciones de control
de calidad.
Reglas de Oro en las Interfases
Theo Mandel, diseñador con mas de Más de 25 años de experiencia y liderazgo en diseño de aplicaciones, sitios web
y aplicaciones móviles, creación de prototipos, investigación de usuarios y pruebas de usabilidad, aplicando
principios de psicología y diseño de consumidores, estableció tres “reglas de oro” para el diseño de la interfaz:
1) Dar el control al usuario. Esta regla busca crear una interacción con el usuario donde el usuario no esté obligado
a ejecutar acciones no necesarias y/o no deseadas. La interacción debe ser flexible, es decir, llegar a una
funcionalidad desde diferentes formas o caminos. Permitir al usuario interrumpir las acciones que ejecuta con el
sistema en cualquier momento. Permitir al usuario modificar la forma en que interactúa con el sistema. Ocultar
errores, advertencias o cualquier otro elemento técnico que corresponda a la implementación del sistema.
2) Reducir la carga de memoria del usuario. Esta regla busca minimizar el esfuerzo por parte del usuario para tener
que recordar cómo tiene que interactuar con el sistema. La regla está relacionada con la petición “una interfaz
amigable” que expresan los usuarios en las reuniones. Para ello se debe tratar de diseñar elementos que sean
intuitivos, diseñar elementos lo más aproximado posible a los objetos de la vida real, proporcionar información
adicional de cada elemento cuando se requiera.
3) Construir una interfaz consistente. Esta regla busca la consistencia de la información en cada una de las
pantallas, las acciones de cada uno de los elementos sean consistentes evitando sorpresas para el usuario y
mantener la secuencia de acciones coherente.
UNIDAD 7 GOBIERNO DE DATOS (25/10/22)
Contexto
Una “Nueva Mercancía” genera una industria lucrativa y de rápido crecimiento, lo que provoca que los reguladores
antimonopolio intervengan para frenar a quienes controlan su flujo. Hace un siglo, el recurso en cuestión era el
petróleo. Ahora las preocupaciones similares están siendo planteadas por los gigantes que se ocupan de los datos, el
petróleo de la era digital.
Estos titanes -Alphabet (compañía matriz de Google), Amazon, Apple, Facebook y Microsoft- parecen imparables.
Son las cinco empresas más valoradas en el mundo.
Los datos…
La capa de datos de una organización es un componente crítico.
Muchas veces la organización es demasiado optimista o ignora la calidad real de los datos.
Existen datos esenciales, tales como clientes, productos, empleados, proveedores, finanzas, contabilidad…
La mala calidad de los datos genera un costo económico real.
Garantizar la calidad, integridad y exactitud de los datos debe ser uno de los principales retos de la organización.
Obtener una visión única de los datos debiera ser mandatorio.
Tener como objetivo datos de calidad, es una filosofía que alinea la estrategia, la cultura empresarial y la
tecnología.
¿Cuales son los problemas en la toma de decisiones?
Los datos en si mismos no aportan valor agregado al negocio. Del mismo modo, las soluciones de BI no son nada
si no tenemos datos fiables.
Por ello, los datos y la información han de ser gestionados de manera cuidadosa, asegurando calidad, integridad,
disponibilidad y uso efectivo.
Objetivos de la gestión de datos
Comprender las necesidades de información de la organización.
Capturar, almacenar, proteger y asegurar la integridad de los datos.
Lograr la mejora continua de los datos.
Asegurar la privacidad y la confidencialidad, previniendo el uso no autorizado.
Maximizar el uso efectivo y el valor de los datos.
Controlar el costo de la gestión de datos.
Promocionar un uso más intenso de los datos.
Gestionar la información de manera consistente a través de la organización.
Alinear la gestión de los datos y la tecnología con las necesidades del negocio.
Data Governance es…
Un Conjunto de políticas y procedimientos
Que establecen procesos
Que supervisan el uso y la gestión de los datos
Para transformarlos en un activo estratégico
Con el objetivo de:
o llevar nuestra compañía a un nivel superior de madurez
o También para mejorar la calidad de los datos y solucionar inconsistencias
o Gestionar el cambio
o Cumplir con las regulaciones y estándares internos y externos
El gobierno de los datos es el ejercicio de autoridad y control sobre la gestión de los datos activos.
No gobierna los datos directamente, sino que gobierna cómo los usuarios acceden a los datos a través de la
tecnología.
Establece quiénes son los propietarios de los datos (nivel operativo y ejecutivo).
Balancea los objetivos contrapuestos: cumplimiento de regulaciones, límite al acceso, procesos de integración.
Tareas de un programa de Data Governance
Guiar a los gestores de información en la toma de decisiones.
Asegurar la consistencia de la información.
Incrementar el uso y confianza de los datos.
Mejorar la consistencia de los proyectos a lo largo de la organización.
Asegurar el cumplimiento de regulaciones internas y externas.
Eliminar los posibles riesgos asociados al uso de datos.
Circunstancias que influyen en el Gobierno de TI
La ética y la cultura de la organización y el sector al que pertenece
Las leyes, regulaciones y guías de actuación, tanto internas como externas
La misión, visión y valores de la organización
Los modelos de la organización relativos a roles y responsabilidades
La política y las prácticas de gobierno de la organización y la industria
El plan de negocio y los propósitos estratégicos de la organización.
Componentes de un programa de Data Governance ( como un comité)
Organización
Políticas, principios y estándares
Procesos y prácticas
Métricas para monitorear el rendimiento
Arquitectura de los datos
Herramientas y tecnología
El equipo de Data Governance
El equipo debe saber cómo utilizar y analizar la información para facilitar la toma de decisiones.
Conocer el negocio y sus procesos, las capacidades de los sistemas y la estrategia de lañcompañía.
Conocer la organización y canalizar la cultura acceso a la información.
Estar actualizado con las novedades de la tecnología.
Propiedad de los datos (stewardship)
Es la formalización de las responsabilidades que garantizan un control y uso efectivo de los datos.
Los propietarios deben ser usuarios del negocio, que a su vez deben ser expertos en el área en cuestión.
Deben gestionar los datos en nombre de los demás usuarios.
Cómo abordar el proyecto de Data Governance?
Una iniciativa de este tipo debe estar conducida por los objetivos de la compañía.
Se debe establecer una estrategia antes de incluir la tecnología.
Recomendaciones:
Involucrar a las unidades de negocio para que lideren la iniciativa.
Lograr un cambio de mentalidad.
Vender internamente el proceso.
Este proyecto no debe ser abordado como un proyecto TIC típico.
Gestionar un portfolio de proveedores estratégicos.
Planificar y diseñar antes de implantar.
Diseñar una estrategia ágil y adaptativa.
Marcos de Trabajo
La puesta en marcha de un gobierno corporativo de datos requiere de marcos de trabajo referenciales
(frameworks) que faciliten el control y la supervisión.
Los Marcos de trabajo más populares son:
Aitil – CMMI – COBIT – ISO
Gestión de Seguridad de la Información: ISO
La actualidad del mundo nos demuestra que la gestión de la seguridad de la información se convirtió en una
disciplina corporativa trascendental.
El gobierno de datos tiene dentro de sus principales metas la evaluación del riesgo de los activos informáticos de
la organización.
La implantación de un sistema de gestión de la seguridad de la información, se realiza mediante los estándares
siguientes:
o ISO/IEC 27001
o ISO/IEC 27002
La ISO 27002 es un código internacional de mejores prácticas para los sistemas de gestión de la seguridad de la
información, enfocado a los riesgos y a los negocios.
Gobierno Corporativo de TI: ISO/IEC 38500
• ISO/IEC 38500 es un marco de trabajo que, apoya a los sistemas de gestión de servicios, ciclo de vida de sistemas,
seguridad y continuidad del negocio, unificándolos y sincronizándolos con el negocio.
• Determina seis principios clave:
Responsabilidad: establecer obligaciones claras
Estrategia: planeación de TI que soporte a las operaciones de la empresa
Adquisición: garantizar las soluciones tecnológicas
Rendimiento: Asegurar el desempeño de TI (medir rendimiento para alcanzar metas
Conformidad: garantizar el cumplimiento legal de las tecnologías (privacidad, confidencialidad, seguridad,
propiedad intelectual)
Factor Humano: políticas TIC que demuestren respeto al factor humano
• Cada uno de estos principios son cubiertos por las actividades de: evaluación, dirección y monitoreo
COBIT
COBIT fue desarrollado por un consorcio mundial de gobierno de TI.
Está concebido como un marco de trabajo.
Nació como una herramienta de auditoría de sistemas, pero ahora incluye componentes de seguridad y de
gobierno.
COBIT determina, con respaldo de las principales normas técnicas internacionales, un conjunto de mejores
prácticas para la seguridad, la calidad, la eficacia y la efectividad en TI que son necesarias para:
Alinear TI con el negocio
Identificar riesgos
Entregar valor al negocio
Gestionar recursos y medir el desempeño
Cumplir metas
Nivel de madurez de los procesos de la organización
CMMI
El modelo original CMM de madurez de software fue establecido para:
o Servir como marco de trabajo en procesos de mejora de software
o Servir como base para organizaciones de software que serán evaluadas por sus clientes
Ofrece un modelo para desarrollar procesos e identificar las prácticas para elevar la madurez del proceso de
mejoramiento de software
El modelo puede usarse para definir objetivos y prioridades, definir el proceso de mejoramiento, y proporcionar
una guía para lograr un proceso maduro, capaz y estable
CMM evolucionó en CMMI
CMMI se adapta a múltiples disciplinas: Ingeniería de Sistemas, Ingeniería de Software, productos integrados y
desarrollo de procesos, fuentes de suministro
CMMI tiene cinco modelos de madurez. El nivel 5 es el más alto y muy difícil de obtener.
(25-10-22) UNIDAD 8 BLOCKCHAIN
Blockchain (La Nueva Revolución de Internet)
En 1998, Nick Szabo describió un sistema de pago basado en técnicas criptográficas conocido como proof-of-
work (PoW – Prueba de trabajo).
En 2008 Satoshi Nakamoto (no sabemos si es real) publica un artículo con una solución técnica para realizar
transacciones entre dos partes, sin necesitar una tercera parte que actúe como validador.
En 2009 nació la red Bitcoin, la primera red conocida de Blockchain, que combinó criptografía, PoW y libro
mayor distribuido. Con esto se logró registrar las transferencias de monedas virtuales de un usuario a otro.
El 2017 fue el gran despegue de las tecnologías Blockchain.
Una enorme cantidad de bancos alrededor del mundo invierten en investigación y desarrollo.
En la actualidad las tecnologías Blockchain se aplican a muchos sectores (que veremos más adelante).
Se espera que la generalización de Blockchain aporte mayor seguridad a las transacciones, lo que impulsará una
administración más eficiente y también facilitará la transformación digital.
Se espera también una convergencia entre Blockchain, Internet de las Cosas e Inteligencia Artificial.
Un punto a tener en cuenta es el conflicto con “el derecho al olvido” y la privacidad, ya que en Blockchain, una
vez que se introducen datos no pueden ser borrados en función a sus conceptos de inmutabilidad e
inalterabilidad.
¿Qué es Blockchain?
Es una contabilidad pública entre pares que se mantiene mediante una red distribuida de computadoras.
Que no requiere ninguna autoridad central ni terceras partes que actúen como intermediarios.
Consta de tres componentes fundamentales:
o Una transacción
o Un registro de transacciones
o Un sistema que verifica y almacena la transacción.
Dicho de otro modo, una Blockchain es una base de datos distribuida y escalable con información horaria
estampada e inmutable de cada transacción que se replica en servidores de todo el mundo. Los usuarios tienen
acceso de manera segura.
La cadena completa se guarda en cada nodo de la red que conforma la Blockchain, por lo que se almacena una
copia exacta de la cadena en todos los participantes de la red.
La inmutabilidad
La inmutabilidad de los datos garantiza que una vez escritos los datos, es prácticamente imposible cambiarlos
(son inmutables). Esto aporta:
Transparencia: Da una vista ÚNICA de la información a todos los participantes.
Consenso: Cuando hay que instalar un nuevo bloque, se requiere el consenso de los participantes del
ecosistema.
Al añadir un bloque a la cadena, la acción se puede verificar y tiene trazabilidad.
Esto se puede automatizar o parcialmente, utilizando algoritmos.
Los bloques de Blockchain
Los bloques se generan a través de software de código abierto y registran la información sobre cuándo y en qué
secuencia ha tenido lugar la transacción.
Este "bloque" almacena cronológicamente información de todas las transacciones que tienen lugar en la cadena,
de ahí el nombre de cadena de bloques o Blockchain.
En cada bloque se almacena:
o una determinada cantidad de registros o transacciones válidas
o información referente al bloque
o su vinculación con el bloque anterior y el bloque siguiente a través del hash de cada bloque (código
único que sería como la huella digital del bloque). También tiene una marca de tiempo.
Cada bloque tiene un lugar específico e inamovible dentro de la cadena, ya que cada bloque contiene
información del hash del bloque anterior.
Cada bloque está matemáticamente vinculado al bloque siguiente. Una vez que se añade uno nuevo a la cadena,
el mismo se vuelve inalterable. Si un bloque se modifica su relación con la cadena se rompe.
Qué es el método Hash?
Una función hash es un algoritmo matemático que se ejecuta sobre un conjunto de datos de cualquier tamaño
de tal forma que se obtiene como resultado otro conjunto de datos, denominado resumen de los datos
originales, de tamaño fijo e independiente al tamaño original.
Tiene la propiedad de estar asociado unívocamente a los datos iniciales, es decir, es prácticamente imposible
encontrar dos mensajes distintos que tengan un resumen hash idéntico.
Es muy utilizada en:
o La gestión de identificadores y contraseñas.
o La detección de malware.
o Integridad de mensajes.
o Firma digital.
o Agregar seguridad a Blockchain
Por qué la Blockchain es tan Segura?
Por ser una tecnología distribuida, cada nodo de la red almacena una copia exacta de la cadena
Se garantiza la disponibilidad de la información en todo momento
Si un hacker quisiera generar una denegación de servicio, debería anular todos los nodos de la red, ya que basta
con que al menos uno esté operativo para que la información esté disponible
Al ser un registro consensuado, donde todos los nodos contienen la misma información, resulta casi imposible
alterar la misma, asegurando su integridad
Cada nodo de la red usa certificados y firmas digitales para verificar la información y validar las transacciones y
los datos almacenados en la Blockchain, lo que permite asegurar la autenticidad de dicha información.
Cadena de Bloques
Qué hacen los mineros?
Se encargan de encontrar nuevos códigos hash,
para crear bloques y a cambio obtener una
retribución en criptomonedas.
Cada bloque tiene una marca de tiempo.
(1/11/22) Resumiendo la cadena de bloques
Mantiene un listado de registros o bloques que crece continuamente.
La marca de tiempo y el enlace con el bloque anterior garantizan que no se pueda cambiar la información.
Al estar descentralizada, ninguna persona controla el total de la información.
El “libro contable” está integrado y distribuido en la red de computadoras.
Una característica importante es que partes que no confían plenamente unas en otras, pueden mantener
consenso sobre la existencia, el estado y la evolución de una serie de factores compartidos.
Cada usuario de la red mantiene una copia del libro de contabilidad, que dificulta la pérdida o destrucción.
Algunos conceptos
Nodo: una computadora. Para comunicarse entre sí a través de una Blockchain, todas las computadoras
involucradas deben funcionar bajo el mismo software o protocolo. Las computadoras se encuentran conectadas
en la red.
Nodos Regulares (Mineros): “Son los encargados de replicar la Blockchain, aceptando los bloques generados por
los validadores y ejecutando las transacciones incluidas en los mismos. Estos nodos son los que inyectan
transacciones en la red, a partir de fuentes externas al Blockchain”
Hash: “Algoritmo matemático que transforma cualquier bloque de datos en una nueva serie de caracteres con
una longitud fija. Independientemente de la longitud de los datos de entrada, el valor hash de salida tendrá
siempre la misma longitud”
Bloque: Se crea en cada nodo, y posee la copia exacta de la información. Cuando se logra la verificación y
confirmación de todos los nodos participantes de la red Blockchain, se crea el nuevo bloque, con el hash
correspondiente, y se añade automáticamente a la cadena sin que medie autorización de un tercero. “Los
bloques de transacciones son usualmente publicados en el libro contable a intervalos de diez minutos”
Fuerza de trabajo (proof-of-work): proceso de producción del bloque. Se trata de resolver un problema
matemático, y una vez resuelto, se añade el bloque en cuestión. Entre todos los nodos, el primero en resolver el
problema es quien puede añadir el siguiente bloque a la cadena
Billetera (cartera o wallet): conjunto de claves, una pública y otra privada, que aseguran la seguridad de las
transacciones. Cualquiera puede lanzar una transacción utilizando la clave pública de la dirección de un receptor
pero solo el propietario de esa dirección que es quien tiene la clave privada puede acceder al valor de la
transacción. De esa manera, sólo el receptor puede descifrar la transacción con la clave privada emparejada a la
clave pública. La denominación wallet proviene delBitcoin y podría almacenar otros elementos pudiendo ser un
contenedor de credenciales
Protocolo: “Es en forma de software informático y permite que la red de nodos puedan comunicarse entre sí” A
través del protocolo se establecen las reglas que definen el comportamiento de los nodos que actuarán en la
Blockchain.
Nonce: número aleatorio añadido al hash de cada bloque.
Algunos conceptos que debemos tener claros
No debemos confundir Blockchain con Bitcoin.
Bitcoin es una criptomoneda.
Blockchain es la técnica que hace posible el protocolo Bitcoin.
Blockchain existe sin Bitcoin, pero no a la inversa.
La Blockchain puede ser pública o privada (veremos el tema en siguientes filminas
El proceso de las transacciones
Inicio de la transacción: Una parte acuerda enviar datos a la otra parte (criptomonedas, contratos, títulos,
certificados, etc.).
Difusión de la transacción: La transacción se difunde por los nodos de la red. Se crea un bloque con las
transacciones en la cadena. Cada nodo tiene algoritmos para comprobar la validez de la transacción.
Bloques y hashing: Se crea una nueva huella digital del nuevo bloque a partir de un código hash, y una huella
digital que apunta al bloque anterior.
Validación de la transacción (minería): Ciertos nodos (mineros) evalúan las transacciones mediante algoritmos
criptográficos. Cando existe consenso entre ellos, la transacción se considera válida y el bloque validado se
añade a la cadena que ya no puede ser modificada.
Ejecución de la transferencia: el bloque se crea definitivamente y la información o unidad de valor se transfiere
de la cuenta de la parte A, a la cuenta de la parte B.
Como funciona blockchain
Video: [Link]
Blockchain Pública
Son de código abierto
Permiten que cualquier persona pueda participar (usuario, desarrollador, miembro o minero)
Todas las transacciones son totalmente transparentes
Cualquiera puede examinar los detalles de una transacción
Diseñada para ser descentralizada (nadie controla qué transacciones se registran o el orden en que se procesan)
Cualquiera puede unirse a la red anónimamente.
Las redes públicas tienen un token asociado para incentivar y recompensar a los participantes en la red.
Blockchain Privada
No están abiertas al público. Se puede acceder por invitación
Las identidades son conocidas. Se puede establecer el nivel de anonimato.
Tienen una unidad central que controla las acciones dentro de la Blockchain
Pueden utilizarse para resolver problemas de seguridad, fraude y eficiencia de instituciones financieras
Se utilizan para la gestión de la identidad digital, para el seguimiento de artículos físicos, auditoría, y la gestión
de la privacidad
Reduce costos de transacciones
Los nodos se conocen entre sí y se comprometen a mantener la estabilidad del sistema.
Blockchain Híbrida o Federada
Son una combinación de públicas y privadas. Los nodos participantes son privados, pero todas las transacciones
son públicas.
Se solicitan permisos y las identidades son conocidas
Son parcialmente descentralizadas
En general las conforman un grupo de compañías que se reúnen para tomar mejores decisiones para toda la red
No permiten que cualquier persona pueda ingresar a verificar transacciones
Son utilizadas en el sector bancario y energético
El proceso de consenso es controlado por un grupo de nodos pre seleccionados
Reducen costos de transacción y redundancia de datos, al mismo tiempo que proveen un buen nivel de
privacidad y control.
Tipos de Blockchain
Al inicio las iniciativas se centraban en evolucionar las capas de consenso y red para el sector financiero. Pero a
partir de la aparición de Ethereum (pública) e Hyperledger (privada), los sistemas Blockchain extendieron su capa
de aplicación y buscar nuevos casos de uso en todo tipo de sectores: comercio, suministros, logística, seguros,
energía, salud, educación, servicios públicos, identidad, etc.
A través del desarrollo de dApps y Smart Contracts se empezaron a lanzar pruebas de concepto y pilotos que
demostraban la eficiencia operativa que se conseguía y los nuevos modelos de negocio que permitía.
Acceso Participantes Seguridad Velocidad
transacción
Blockchain Cualquiera Sin permisos Mecanismo de consenso
publicas Anónima descentralizados Lenta
* Prueba de trabajo
* Prueba de participación
Blockchain Una única Con permisos Algoritmos de consenso propios
privadas organización identidades * Transacciones verificadas dentro de Mas ágil y rápida
conocidas una organización (centralizado)
Blockchain Organizaciones Con permisos Algoritmos de consenso propios
federadas o múltiples identidades * varios nodos preseleccionados Mas ágil y rápida
de consorcio seleccionadas conocidas dentro de las organizaciones
(parcialmente descentralizado)
Contratos inteligentes
Nick Szabo definió en 1994 Smart Contract como un conjunto de promesas, especificado en forma digital, que
incluye protocolos dentro de los cuales las partes cumplen con estas promesas.
En 2015 Ethereum, Blockchain pública, incorpora como innovación principal a los contratos inteligentes.
Un contrato inteligente es un protocolo informático que facilita y verifica que un contrato se cumpla de manera
automática.
Una vez que un contrato es escrito y añadido a la Blockchain, se ejecutará automáticamente cuando se cumplan
determinadas condiciones.
Entonces los Contratos inteligentes…
Son contratos definidos mediante software que automatizan y garantizan su cumplimiento
Se almacenan en una Blockchain distribuida y descentralizada, y son ejecutados por la red de nodos
Requieren que el dinero sea un token digital
Evitan tener que recurrir a terceros
El código informático controla la ejecución y las transacciones son rastreables e irreversibles.
Contratos inteligentes vs. Tradicionales
Un contrato tradicional entre dos o más partes requiere de una redacción previa de sus cláusulas, y necesita un
marco regulatorio, abogados, leyes, justicia…
El contrato inteligente elimina a los intermediarios y se autoejecuta de manera autónoma, a través de
situaciones basadas en algoritmos.
Un contrato inteligente solo necesita un acuerdo entre las partes para ser válido y no tiene por qué estar
sometido a ninguna actividad.
En dónde puedo aplicar un Smart Contract?
Servicios financieros y bancarios: 7. Sector Inmobiliario
8. Automatización de pagos y Donaciones
1. Préstamos
2. Seguros Servicios legales:
3. Hipotecas
4. Pagos de cupones y bonos 1. Registro de la propiedad
5. Depósitos en garantía 2. Propiedad Inteligente
6. Herencias 3. Firma digital y verificación de identidades
4. Escribanos Servicios del sector público:
Servicios de salud: 1. Controlar el suministro y pago de servicios
1. Expedientes médicos 2. Votaciones
2. Acceso a datos sanitarios de la población 3. Apuestas
3. Seguimiento de la salud personal 4. Estaciones de recargas de vehículos eléctricos
Trazabilidad de Blockchain ( por la que va llevando, rastrear cada movimiento)
La trazabilidad es una de las aplicaciones más eficiente y de mayor uso en la Blockchain.
La trazabilidad implica poder identificar el origen y las diferentes etapas de un proceso.
Por ejemplo, la trazabilidad de un producto es la posibilidad de conocer el origen de un producto y seguir su
curso a lo largo de la cadena de transformación y distribución.
Un sinónimo de la trazabilidad, es la rastreabilidad.
Blockchain es una tecnología eficiente en la resolución de problemas de trazabilidad y logística.
Otros usos de Blockchain
Industria alimenticia: seguimiento de productos de consumo desde su nacimiento hasta su distribución final.
Sector energético: Intercambio de energía renovable por ejemplo.
Bancos: generación de claves aleatorias irremplazables. Transferencias internacionales al instante.
Agricultura y vinos: Estado de verduras y hortalizas en tiempo real. Procedencia de los alimentos. Trazabilidad
de la producción.
Logística: Aseguramiento de la identidad de la propiedad física y de los envíos. Aseguramiento de la cadena de
frío. Automatización en el pago de envíos, por ejemplo al conectar un GPS con Blockchain en la información del
contrato de compra, para que de inmediato a que se realiza el intercambio definitivo de un producto, se realice
el pago de modo automático.
Comercio: Identidad Digital. Sin necesidad de abrir una cuenta por plataforma, ni ingresar dantos de pago en
cada transacción. Verificar la no falsificación de productos.
Sanidad: Historia clínica absoluta. Garantizar la privacidad de los datos.
Real Estate: Los contratos inteligentes permitirán formalizar acuerdos. Los contratos se ejecutarán
automáticamente cuando se cumplan condiciones determinadas. Verificación de la propiedad de inmuebles,
evitando fraudes.
Seguros: Resolver siniestros de modo más justo. Evitar retrasos en la solución. Reembolsos automáticos.
Música: Proporcionar derechos de propiedad a los autores. Obtención de beneficios. Protección contra piratería.
(el dueño decide como hacerlo)
MATERIAL ADICIONAL QUE AGREGA VALOR AL TEMA
El TRILEMA de Blockchain
El Trilema de Blockchain se compone de tres factores: seguridad, descentralización y escalabilidad / velocidad.
Una solución que se base en la tecnología Blockchain debe cumplir cualquiera de los tres factores, dejando al
tercero en segundo plano.
Seguridad: Representa la habilidad de la plataforma para garantizar la inmutabilidad de la información y la
resistencia a ataques informáticos.
Descentralización: Implica la capacidad de delegar responsabilidades entre los participantes, organizándose
mediante consenso para validar la información. Algunos participantes validarán operaciones y otros
almacenarán la información. Es preferible que los nodos no se conozcan entre sí.
Escalabilidad / Velocidad: Implica la habilidad para las transacciones de los participantes. La plataforma debe
proveer tiempos de respuesta aceptables.
Por ahora Blockchain tiene problemas para garantizar los tres factores a la vez Blockchain de 3ra generación podría
resolver el Trilema.
El TRILEMA de Blockchain – La solución de Algorand
Silvio Micali, experto en Criptología del MIT y creador de Algorand encontró un método para resolver el trilema.
El experto sostiene que un registro público necesita procesar al menos 1000 transacciones por segundo.
Algorand utiliza el azar para resolver el trilema.
Se seleccionan validadores de transacciones al azar de entre los poseedores de tokens.
La red depende de un algoritmo que automáticamente elige el siguiente grupo de nodos para agregar bloques.
Se mantiene la descentralización ya que cualquier usuario puede ser elegido por el sistema.
El no saber quién será el próximo validador, garantiza la seguridad.
Qué es una criptomoneda?(no entra)
Las criptomonedas (también llamadas criptodivisa o moneda virtual) son dinero digital que se construyen sobre
una base criptográfica.
No son necesarios intermediarios (por ejemplo los bancos) para enviar dinero a alguien.
Una persona podría hacer un pago rápido evitando los altos cargos por transacción, también pueden invertirse.
Se debe tener en cuenta que es un mercado con muy alta volatilidad.
Las criptomonedas se almacenan en billeteras digitales (existen varias modalidades).
Las criptomonedas no tienen los respaldos gubernamentales del dinero físico, pero la mayoría de ellas disfruta
del concepto de la descentralización.
Las transferencias (por el concepto de Blockchain) por lo general son irreversibles.
Criptomonedas propiamente dichas (no entra )
Criptomonedas: monedas digitales nativas de su propia Blockchain.
Tienen sus propios libros contables independientes.
Pueden ser recibidas, enviadas y minadas.
Tienen características similares al dinero: fungibles, portátiles, divisibles y son limitadas.
Veamos algunas de las Blockchain importantes:
BTC: Blockchain Bitcoin
ETH: Blockchain Ethereum
XMR: Blockchain Monero
ADA: Blockchain Cardano
XRP: Blockchain Ripple
Altcoins y Stablecoins (no entra)
Dinero Fiat:
Son las monedas impuestas por los Estados. Son monedas de curso Legal (dólar, Euro, Peso Argentino…)
Altcoins:
Se llaman así porque son una alternativa a Bitcoin (BTC). Algunas de ellas fueron desarrolladas usando el
protocolo de Bitcoin. ETH, LTC, ADA, NEO, DOT, IOTA, etc…
Se engloba en un mismo término a criptomonedas y tokens.
Stablecoins:
Son monedas estables que minimizan la volatilidad de las criptomonedas
Pueden estar vinculadas a dinero FIAT (BUSD, USDT), comercio de materias primas (PETRO), metales
(PAX GOLD)
Por ejemplo Tether es una moneda estable muy utilizada y que mantiene su valor muy próximo al dólar
Suelen ser la puerta de entrada a la compra de otras criptomonedas
Tokens (no entra )
Son activos digitales, que pueden ser utilizados dentro del ecosistema de un proyecto determinado
Los tokens necesitan otra plataforma Blockchain no propia para funcionar y un contrato inteligente.
Una de las principales plataformas para la creación de tokens es Ethereum (por sus contratos inteligentes).
También se pueden usar como medio de pago.
Muchos tokens se crean para usar dentro de aplicaciones descentralizadas (DApps).
Ejemplos de Tokens:
Sobre Ethereum: Tether (USDT), USD Coin (USDC), Uniswap (UNI), Chainlink (LINK), Polygon (MATIC),
Binance USD (BUSD)
Sobre TRON: BitTorrent Token (BTT), WinkLink (WIN)
Sobre Binance Chain: Binance Coin (BNB), Pancake Swap (CAKE)
En El mundo físico una ficha de casino es un token.
Tipos de Billeteras (no entra)
Existen diversos tipos de billeteras que se distinguen principalmente por su SEGURIDAD, conveniencia,
accesibilidad, facilidad de uso, tipo de dispositivo….
Usted puede elegir la billetera que desee, pero nunca debe olvidar el concepto seguridad.
Vamos a hablar de:
Billeteras descentralizadas
o Frías (o fuera de línea)
o Calientes (no custodia de claves)
Billeteras centralizadas
o Calientes (custodia de claves)
Billeteras Frías (no entra )
Las claves privadas no se almacenan en línea.
Las criptomonedas se mantienen alejadas de dispositivos vulnerables conectados a Internet.
Algunos dispositivos tienen formato de Dispositivos tipo pendrive USB.
Son las más seguras y recomendadas por los expertos.
Son costosas y en algunos casos no tan sencillas para manejar.
Ideales para grandes cantidades de criptomonedas
Billeteras Calientes (no custodia de claves) NO ENTRA
Se ejecutan en dispositivos conectados a Internet (computadoras, smartphones, tablets, etc.).
Las claves privadas son guardadas por el usuario y tiene la responsabilidad de custodia.
Si el usuario pierde sus claves privadas, pierde el acceso a los fondos, y no es posible recuperarlos.
Son más vulnerables que las frías, pero fáciles de usar.
Son ideales para pequeñas cantidades de criptomonedas.
Se recomienda copiar las claves privadas en papel, haciendo algunas copias y resguardándolas en lugar seguro.
No se recomienda guardar las claves en equipos informáticos, ni tomar fotos de las claves.
Billeteras Calientes Centralizadas (Custodia de claves) NO ENTRA
Son billeteras que se obtienen a través de intermediarios.
El sitio más importante es Binance.
En Argentina tenemos a Satoshi Tango, Bitso, SeSocio, Ripio, Buen Bit, entre otras.
Las claves privadas son guardadas por el sitio WEB.
Puede existir vulnerabilidad a hackeos, robos, pérdida de fondos, fraude…
Tienen poderosas herramientas de análisis e importante variedad de alternativas para trading.
Bitcoin y Blockchain NO ENTRA
Blockchain
En ocho
Pasos
Comparación de Algunas Blockchain
Video:[Link]
28/10/22 CONTROL INTERNO EN IT
¿Qué tipo de control es el control interno?
Es preventivo.
Es continuo.
Está indisolublemente asociado a los sistemas administrativos y contables.
Incorporado al diseño de la estructura, los procedimientos y los sistemas.
Es interno, ya que es propio de cada organización (hay excepciones, organismos de contralor por ejemplo BCRA,
normas SOX, etc.)
Utiliza la relación costo beneficio.
Participación de la Auditoria Interna y Externa
La auditoria DETECTA errores o fraudes.
Si bien el control interno es básicamente PREVENTIVO, la simple presencia de la auditoria y de su accionar,
colaboran en el fortalecimiento del Control Interno.
Normalmente emite recomendaciones que se canalizan en el diseño y mejoramiento de los mecanismos
preventivos de control, es decir CORRIJEN situaciones.
Dado que hay organizaciones que no cuentan con un servicio de auditoria de sistemas interno ni externo,
debemos valorizar la importancia de tener implementado un muy buen sistema de control interno.
Perjuicios o daños que se derivan de un error o fraude
ECONOMICOS (robo o pérdida de dinero o mercadería).
PERDIDA DE INFORMACION (costo de reprocesamiento y de oportunidad).
PERDIDA DE CONFIDENCIALIDAD.
PERDIDA DE IMAGEN O DE REPUTACION
CONTROL INTERNO EN IT
Evitar fraudes y errores.
Ganar seguridad y confiabilidad en el procesamiento de los datos y generación de la información.
Sin perder eficiencia para de esta manera contribuir a un adecuado control del patrimonio.
Factores críticos de éxito
Primero identificar objetivos.
Segundo identificar riesgos.
Luego, recién definir controles
Proceso dinámico y cambiante.
Estar siempre alertas a la definición de nuevos controles, ya que:
Existe una complejidad creciente en los ambientes de IT.
Los ambientes son cada vez más abiertos con mayor conexión con terceros relacionados (proveedores, clientes,
gobierno, bancos, etc.).
La velocidad del avance tecnológico puede hacer obsoletos controles ya definidos.
Aparición constante de nuevas amenazas (intrusiones, virus, etc.).
Que debemos controlar.
Todo sistema tiene básicamente ENTRADAS, PROCESOS, ARCHIVOS y SALIDAS.
Por lo tanto debemos elaborar una malla de protección para evitar la ocurrencia de errores o fraudes en cada
uno de los ítems mencionados.
Pero también los sistemas tiene un entorno en donde se desarrollan, un perímetro físico y lógico que debo
cuidar celosamente.
De nada valdría controlar entradas, procesos y salidas si no protejo mi entorno físico y lógico adecuadamente.
Clasificación de los controles
➢ CONTROLES PREVENTIVOS
Detectar problemas antes que ocurran.
Monitorear tanto las operaciones como el ingreso de datos.
Tratar de predecir problemas potenciales antes que estos ocurran y hacer ajustes.
Impedir que ocurra un error una omisión o un acto malicioso.
Ejemplos:
Emplear solo personal calificado.
Segregar funciones (efecto disuasivo).
Controlar el acceso físico a las instalaciones.
Usar documentos bien diseñados (prevenir errores).
Establecer procedimientos adecuados para la autorización de transacciones.
Usar software de control de acceso que permita que solo el personal autorizado tenga acceso a archivos
sensitivos.
➢ CONTROLES DETECTIVOS
Usar controles que detecten y reporten que ha ocurrido un error, una omisión o un acto malicioso.
Ejemplos:
Puntos de verificación en los trabajos (jobs) de producción.
Doble verificación de cálculos.
Reporte de cuentas vencidas.
Revisión de registros de actividad para detectar intentos de acceso no autorizados.
➢ CONTROLES CORRECTIVOS
Minimizar el impacto de una amenaza.
Remediar problemas descubierto por los controles detectivos.
Identificar la causa de un problema.
Corregir los errores resultantes de un problema.
Modificar los sistemas de procesamiento para minimizar ocurrencias futuras del problema
Ejemplos:
Planeación de contingencias
Procedimientos de segunda ejecución de programas
Activación automática de rociadores(
4/11/22) GENERALES Y DE APLICACIÓN
Controles Generales.
Controles comunes a todas las aplicaciones..
Controles que abarcan a todas las actividades de IT.
Controles de aplicación.
Controles particulares definidos para el software aplicativo.
CONTROLES GENERALES.
►Controles generales organizativos.
Separación de funciones (principal usuario, desarrollo y operaciones.
Estructura Organizativa (dependencia, supervisión y control).
Manual de Organización de Sistemas (puestos de trabajo, misiones, funciones, perfiles de uso y acceso a los
distintos recursos).
►Controles de acceso físico y lógico
Protección del hard, soft y telecomunicaciones.
Acceso físico a recintos críticos.
Aires acondicionados, energía eléctrica, UPS, detectores de calor humedad.
Contraseñas y perfiles de acceso.
Inundaciones, incendios, terremotos, huelgas, tumultos.
Fallas en el software y en el hardware.
►Controles de documentación.
Objetivos del sistema.
Diseños globales.
Diseños detallados.
Distintos diagramas (DFD, de sistemas, etc.).
Diseño de entradas y salidas.
Diseño de archivos y programas fuentes.
Manual técnico del sistema.
Manual del usuario.
Detalle de la base de datos.
►Controles de biblioteca.
Resguardo de archivos de programas y datos.
Identificación de los archivos y programas.
Control de la utilización de los archivos (de datos solo a operadores y de prueba para analistas y
desarrolladores.
Utilización de software para su tarea.
Resguardo con extremas medidas de seguridad para archivos que contengan información confidencial.
►Continuidad del Procesamiento.
Procedimientos para la recuperación de la información.
Definir y documentar el plan.
Probar el plan por lo menos una vez al año.
CPA a una distancia considerable del CPD.
Back up diarios fuera de los límites de la organización.
►Controles de servicios Cross.
Cruzan los distintos tipos de controles mencionados precedentemente.
Administración de contratos (personal y de licencias de software por ejemplo).
Control de licencias.
Control de versiones.
CONTROLES DE APLICACIÓN.
►Controles sobre las entradas. o Número de factura o comprobante.
o Importe.
1.a) Preparación Usuario
o Vencimiento.
Utilizar documentos de origen prenumerados.
o Todos ellos reducen la posibilidad de
Carátulas de Control de Lote (procesamiento).
error.
Cantidad documentos que componen el lote.
Denominación de los documentos a procesar. Acceso restringido a documentos.
Número inicial y final. Dígito verificador.
Totales de Control consistentes en sumatoria 1.c) Consistencia.
de campos críticos : importes, cód. de Controles de Formato.
cuentas. Control de falta de contenidos de un campo.
Totales de entrada y de salida. Límite de razonabilidad / Rango.
Revisión de totales en archivos maestros. Control de correlación entre distintos campos
1.b) Digitacion. de entrada.
Recordar que las Entradas de un sistema son Control de balanceo.
generadas a partir de las Salidas de otro. Control de conciliación entre la sumatoria de
o Identificación de servicio. cada una de las transacciones y los totales de
o Código de usuario / cliente / lote.
contribuyente. Ítem rechazado o en suspenso.
1.d) Validación. o Totales de control usuario
Destinada a cruzar información con el objeto o Totales de control computador
de no cometer contradicción. Teniendo en cuenta:
Control para evitar procesamiento duplicado. Rechazos ocurridos
Ítem en suspenso
1.e) Controles de integración.
Confidencialidad de las Salidas
El objetivo que todas las operaciones
o Llegan sólo a usuarios legítimos
originadas por el usuario sean consideradas a
través de las distintas etapas. ►Controles sobre los datos fijos.
Recaudos para todas las modificaciones a los
►Controles sobre el procesamiento.
archivos maestros.
Controles programados de balanceo de
o Control de procesamiento (el área
archivos.
que los procesa).
o Saldo apertura ciclo actual = saldo
o Los niveles de seguridad de los
cierre ciclo anterior.
usuarios.
o Saldo inicial +/- movimientos = Saldo
Se sugiere el análisis periódico pero de forma
final.
aleatoria con el fin de actuar en forma
o Sumatoria saldos individuales = Saldo
sistemática en el proceso de auditoria,
de la cuenta contable relacionada.
generando un ambiente de control continuo
Rótulos de encabezamiento y Cierre.
(muestreo).
o En el encabezamiento (denominación
del volumen, fecha de vencimiento,
número de ciclo.
o En el final del archivo (totales de
control de número de casos, importe
total del contenido.
►Controles sobre las salidas.
Conciliación de:
Unidad 7: ÉTICA EN LOS SISTEMAS DE INFORMACIÓN. POLÍTICAS DE PRIVACIDAD
Importancia de la Ética
La tecnología de la información y las telecomunicaciones plantean retos y dilemas éticos que van desde la
monitorización y el control del correo electrónico de los empleados, hasta la invasión de la información privada
de clientes que esta almacenada en bases de datos publicas.
La ética se refiere a los principios de comportamiento del bien y el mal de las personas y de las organizaciones en
general y la ética de la información se refiere a lo mismo pero específicamente a la gestión de la información.
Los temas éticos son un gran reto en el mundo empresarial y de los negocios ya que lo se considere ético para
una persona, puede no serlo para otra. Lo mismo en términos de los procederes en un país, pueden diferir a los
de otro.
Los negocios que recogen datos de sus empleados, clientes u otros grupos de interés, deben velar por el cuidado
de esos datos. Los datos solo deben ser accesibles para las personas autorizadas. Cualquier situación que se
produjera en contrario puede generar grandes perjuicios a la operación y por ende a la reputación y el
patrimonio de esa empresa.
Concepto de Ética
La importancia y la definición de lo que es correcto y lo que es incorrecto, no siempre esta claramente definido.
Existen varias definiciones de ética, nosotros tomaremos la siguiente ”la disciplina que trata lo que es bueno o
malo y con el deber moral y las obligaciones” La ética es la rama de la filosofía que se preocupa asimismo de la
moralidad mediante el estudio de lo correcto e incorrecto buscando encontrar una diferencia entre el bien y el
mal“
Las empresas y organizaciones socialmente responsables se preocupan de que sus directivos tomen decisiones
éticas.
Dado que este tema es critico, muchas organizaciones definen sus propios códigos de ética para dejar
claramente definido que cosas si son correctas y cuales no en el marco de la organización.
Un código de ética es un compendio de normas y buenas practicas que guían la correcta toma de decisiones
Los profesionales de TI tienen como referencia al Código de Ética de la ACM ( Association for Computing
Machines) una organización mundial de los profesionales de la tecnología que tiene un código de ética solvente,
profesional y recomendado para todos sus profesionales.
Ejemplos recientes de juicios éticos fallidos de Gerentes de nivel Superior.
EMPRESA CASOS
General Motors El CEO admite que la empresa encubrió durante mas de una década los interruptores de
Inc. (2014) encendido, lo que ocasiono al menos la muerte de 13 clientes. La empresa retiro 2,7 millones
de autos del mercado.
Barclays Bank. Uno de los bancos mas grandes de mundo, admitió manipular sus propuestas para las tasas de
(2012) interés de referencia LIBOR con el fin de mejorar sus posiciones de negociación y la
percepción del mercado sobre la salud financiera del banco.
Walmart Inc. Los ejecutivos de Walmart México fueron acusados de pagar sobornos por millones de u$s a
(2012) funcionarios de gobierno para obtener permisos de construcción.
Siemens (2009) La empresa de ingeniería mas grande del mundo pago mas de $ 4 mil millones a las
autoridades alemanas y estadounidenses por un esquema de soborno a nivel mundial que
duro varias décadas, aprobadas por los ejecutivos corporativos para influenciar a los clientes
potenciales y a los gobiernos.
Mac Kinsey & El CEO Rajat Gupta escucho contas que filtraban información privilegiada. El anterior CEO de
Company(2011) la empresa fue encontrado culpable en 2012 y sentenciado a dos años de prisión.
Ética en los sistemas de información.
Los sistemas de información y sus estructuras de TI facilitan la generación de nuevos negocios otorgándole su
potencia y a su vez paradójicamente generando dilemas éticos en la toma de decisiones.
Todos los empelados independientemente de su nivel jerárquico tiene la obligación de utilizar la tecnología y la
información dentro de un marco ético.
La diversidad de utilización de TI obliga a tener en cuenta distintos marcos éticos dentro de la misma
organización., identificaremos entonces 4 áreas o categorías éticas de la información
1. Privacidad (privacy): Implica la recolección, almacenamiento y diseminación de la información sobre las
personas.
2. Precisión ( accuracy): Implica la autenticidad, fidelidad y precisión o exactitud de la información que se
recoge y procesa.
3. Propiedad (Property): Implica la propiedad (ownership) y el valor de la información.
4. Accesibilidad ( accesibility): Gira en torno a la persona que tiene acceso a la información y si esa acción
requiere el pago de una tasa para ese acceso.
Privacidad
¿Que es exactamente la privacidad? Generalmente se utiliza el termino para referirse al derecho de una persona
a tener control sobre su información confidencial.
La privacidad de la información es el derecho a determinar cuando y en que amplitud la información puede ser
reunida y comunicada a otros.
Los derechos de privacidad de aplican a individuos, grupos e instituciones.
La definición de privacidad se puede interpretar ampliamente. Sin embargo en distintos países las distintas
legislaciones también se pueden interpretar en distintas versiones.
Algunas consideraciones que por lo general son comunes:
a) El derecho a la privacidad no es absoluto. La privacidad debe estar equilibrada frente a las necesidades de la
sociedad.
b) El derecho de lo publico a conocer reemplaza el derecho de privacidad de las personas.
▪ Los rápidos avances en TI han facilitado, la captura, almacenamiento e integración de los datos de las personas en
grandes bases de datos. Por otra parte imaginemos la cantidad de datos personales que se originan por las compras
con tarjetas, compras online, geolocalización de los celulares, mensajes de texto, llamadas desde celulares, etc. Por
lo tanto de alguna manera las empresas deben garantizar esta información.
Privacidad de la información y leyes de privacidad.
Los distintos sistemas legales en el mundo difieren en como tratar las evidencias, los derechos del acusado y del
rol del poder judicial.
Estas leyes tienen un impacto muy importante en la privacidad, y en las plataformas de computación actuales
como la nube, además de internet como soporte.
La privacidad en esencia es el derecho de una persona a la protección de la divulgación no autorizada de la
información de identificación personal.
Esta protección es fundamentalmente importante para transacciones electrónicas en la web y en la nube.
La información personal identificable es un concepto utilizado en seguridad de la información y se refiere a la
información que se puede utilizar para; identificar, contactar o localizar una persona en concreto.
Códigos y políticas de privacidad.
Los códigos y políticas de privacidad son directrices de una organización para proteger la privacidad de sus
empleados y clientes.
Los sitios web de las organizaciones tienen sus propias políticas de privacidad disponibles para leer en línea y
normalmente incluyen las siguientes áreas:
a) Declaración del compromiso de la empresa con la privacidad.
b) El tipo de información capturada, tales como nombres, direcciones, números de tarjetas de crédito, números
de teléfono, etc.
c) Retención y uso de la correspondencia de correo electrónico.
d) Información recogida a través de cookies y archivos logs de servidores y cómo se utiliza la información.
Una herramienta de privacidad disponible hoy para los consumidores es el Platform for Privacy Preferences
(P3P) un protocolo que comunica automáticamente las políticas de privacidad entre un sitio web de comercio
electrónico y visitantes de ese sitio.
P3P facilita a los visitantes la determinación de los tipos de datos personales que se pueden extraer de los sitios
web que visitan.
Permiten también a los visitantes comparar la política de privacidad de un sitio web con las preferencias de otros
visitantes.
Políticas de privacidad ante las cookies.
Las cookies son una potente herramienta empleada por los servidores web para almacenar y recuperar
información acerca de sus visitantes. Proporcionan una manera para conservar información entre peticiones de
clientes, ampliando las capacidades de las aplicaciones clientes/servidor basadas en la web.
Mediante su uso se permite al servidor web recordar algunos datos concernientes al usuario, como sus
preferencias para la visualización de las paginas de ese servidor, nombre y contraseña, productos que mas le
interesa, etc.
Una cookie es un archivo de texto que algunos servidores solicitan al navegador que escriba en el disco duro, con
información relativa a lo que se ha estado consultando mientras visitaban su pagina. El archivo se descarga,
almacena en el disco duro y contiene información que luego puede ser recuperada por el servidor que los coloco
en posteriores visitas.
Los archivos cookies permiten a los sitios web almacenar información sobre los hábitos de navegación de los
visitantes y esta información se utilizara en el futuro cuando vuelva a navegar en el sitio.
Las cookies pueden almacenar direcciones de correo electrónico, información sobre pedidos hechos a través de
la web, el rastro de como llego hasta la pagina, etc.
Las cookies bien utilizadas pueden favorecer las operaciones de la empresa, pero también se suele abusar de
ellas a través de por ejemplo modalidades de spyware para conseguir hábitos de navegación de usuarios y datos
personales sin el consentimiento ni el conocimiento del dueño de esos datos.
Tipos de cookies
Las cookies desde un punto de vista práctico se pueden clasificar:
1. De sesión. Que usualmente se eliminan cuando el navegador se cierra.
2. Persistente. Se mantiene a pesar de que el navegador se cierra. Se mantiene por un tiempo especifico.
3. Segura. Solo se utilizan con protocolos HTTPS.
4. De terceros. Se utilizan principalmente para páginas publicitadas, es decir la pagina visitada crea una cookie a
nombre de una pagina publicitada, en caso de que el usuario decida visitarla.
Tecnologías para gestionar las cookies.
Tecnologías P3P.
Correo seguro encriptado.
Navegación anónima.
Bloqueo de cookies.
Bloqueo de anuncios.
Borrado permanente de archivos.
Encriptación de clave publica.
Generadores de políticas de privacidad.
video: [Link]
¿Qué aspectos Éticos, Políticos y Sociales generan los SI?
Los últimos 10 años han demostrados se un periodo desafiante en el sentido ético a nivel mundial.
Actualmente con un nuevo entorno legal, es probable que los Gerentes de IT que violen la ley y reciban condena,
se arriesguen a pasar periodos importantes en prisión.
En el pasado las empresas de negocios pagaban a sus empleados involucrados en litigios legales los abogados y
los gastos de defensa. Actualmente la ley anima a las organizaciones a acordar con los fiscales para reducir penas
dando información sobre los ilícitos investigados. Por eso mas que nunca los empleados deben evaluar por su
cuenta si en su accionar no están violando códigos de conducta, éticos o de practicas desleales.
La paradoja es que si bien estos ilícitos pueden no haber sido planeados por los departamentos de sistemas de la
información, dichos sistemas de información fueron instrumentos por los que se cometieron dichos ilícitos y
fraudes.
Es entonces que a los aspectos éticos en los sistemas de información se les ha dado una nueva urgencia con el
advenimientos del E commerce, internet y las tecnologías de las empresas digitales que facilitan hoy mas que
nunca el ensamblado, la integración y distribución de la información. Todo esto preocupa por la cantidad de
información que se intercambia entre empresas, gobiernos, clientes y proveedores, y como mantener la
privacidad, seguridad y consistencia de dicha información.
Otros aspectos éticos urgentes generados por los sistemas de información son: establecer la rendición de
cuentas por las consecuencias de los sistemas de información, fijar estándares para salvaguardar la calidad del
sistema que protege la seguridad del individuo y de la sociedad, así como preservar los valores y las instituciones
que se consideren esenciales para la calidad de vida en una sociedad de información.
Entonces cuando utilicemos sistemas de información resulta imperiosa la pregunta ¿ Cual es el curso de acción
ética y socialmente responsable?
Un modelo para pensar en los aspectos éticos, sociales y políticos
Cinco dimensiones morales de la era de la información
Los principales aspectos éticos, sociales y políticos que generan los sistemas de información incluyen las siguientes
dimensiones morales:
A. Derechos y obligaciones de información: ¿Qué derechos de información poseen los individuos y las
organizaciones con respecto a si mismos? ¿Qué pueden proteger?
B. Derechos y obligaciones de propiedad: ¿Cómo se protegerán los derechos de propiedad intelectual
tradicionales en una sociedad digital en la que es difícil rastrear y rendir cuentas entre la propiedad, y es muy
fácil ignorar tales derechos de propiedad?
C. Rendición de cuentas y control: ¿Quién puede y se hará responsable de rendir cuentas por el daño hecho a la
información individual y colectiva, y a los derechos de propiedad?
D. Calidad del sistema: ¿Qué estándares de calidad de los datos y del sistema debemos exigir para proteger a los
derechos individuales y a la seguridad de la sociedad?
E. Calidad de vida: ¿Qué valores se deben preservar en una sociedad basada en la información y el conocimiento?
¿Qué instituciones debemos proteger para evitar que se violen sus derechos? ¿Qué valores y prácticas culturales
apoya la nueva tecnología de la información?
Principios específicos para guiar las decisiones éticas
1. La responsabilidad. Es un elemento clave de la acción ética. Significa que usted acepta los costos, deberes y
obligaciones potenciales por las decisiones que toma.
2. La rendición de cuentas. Es una característica de los sistemas e instituciones sociales, significa que hay
mecanismos en vigor para determinar quien tomo una acción responsable, y quien esta a cargo. Los sistemas y
las organizaciones en los que es imposible determinar quien tomo una acción son por naturaleza incapaces de
un análisis ético o de una acción ética.
3. El debido proceso. Es una característica relacionada a las sociedades gobernadas por leyes, y es un proceso en el
que las normas se conocen y comprenden, además que existe la capacidad de apelar a las autoridades
superiores para asegurar que se apliquen las leyes correctamente.
Estos conceptos básicos forman el fundamento de un análisis ético en los sistemas de información y quienes los
administran. En primer lugar, las tecnologías de la información se filtran a través de instituciones sociales,
organizaciones e individuos.
En segundo lugar, la responsabilidad por las consecuencias de la tecnología, recae sin dudas en las instituciones,
organizaciones y gerentes individuales que eligen usar la tecnología.
Algunos dilemas éticos del mundo real.
Los sistemas de información han creado nuevos dilemas éticos en los que un conjunto de intereses se compara
con otro. Por ejemplo, muchas de las grandes compañías telefónicas de EEUU usan la tecnología de la
información para reducir el tamaño de sus fuerzas laborales.
El software de reconocimiento de voz reduce la necesidad de operadores humanos al permitir que las
computadoras reconozcan las respuestas de un cliente a una serie de preguntas programadas.
Muchas compañías supervisan lo que hacen sus empleados en internet para evitar que desperdicien recursos de
la compañía en actividades que no estén relacionadas con la empresa.
Facebook monitorea a sus suscriptores y luego vende la información a los anunciantes y desarrolladores de apps.
En cada uno de estos ejemplos podemos encontrar valores rivales en acción, con un público que adhiere a estas
prácticas y otros que las repudian.
Sin embargo, en cada una de estas decisiones podemos encontrar cuestiones éticas para poder debatir. ¿Que
está bien, que está mal?
Veamos una manera de revisar las situaciones desde un Análisis Ético.
Análisis Ético
Al enfrentarse a una situación que parece presentar cuestiones éticas. ¿Como deberíamos analizarla? Este proceso
de cinco pasos nos facilitara esa cuestión:
1. Identificar y describir los hechos con claridad: Averiguar quien hizo que a quien, donde y como lo hizo. También
es útil que las partes opositoras de un dilema éticos se pongan de acuerdo en los hechos.
2. Definir el conflicto o dilemas e identificar los valores involucrados de mayor a menor orden: Los aspectos
éticos y morales siempre hacen relación a valores supremos. Ejemplo la necesidad de digitalizar la información y
el dilema que se expondrán los datos de las personas.
3. Identificar a los participantes: Toda cuestión ética trata de opiniones de personas. Es necesario identificar y
averiguar los valores que persiguen y que necesitan. Esto será fundamental a la hora de darle una solución al
tema.
4. Identificar las opciones que se pueden tomar en forma razonable: Quizás descubramos que ninguna de las
opciones satisface a las partes, pero que algunas opciones hacen que el trabajo se realiza de una manera más
aceptable.
5. Identificar las consecuencias potenciales de las opciones: Algunas opciones pueden ser correctas desde la
cuestión ética, pero desastrosas desde otro punto de vista. Quizás algunas opciones funcionen en alguna
oportunidad pero no en otra. Siempre debemos preguntarnos ¿Qué pasa si selecciono esta opción
consistentemente todo el tiempo?
UNIDAD 8: TENDENCIAS TECNOLÓGICAS. LA EMPRESA SOCIAL
Introducción
“La innovación es la introducción de nuevos productos y servicios, nuevos procesos, nuevas fuentes de
almacenamiento y cambios en la organización industrial, de manera continua y orientados al cliente, consumidor o
usuario” J.A. Schumpeter.
Las tendencias fundamentales que se avecinan en el horizonte de los próximos años se agrupan en cuatro
grandes pilares: a) la nuble (cloud), b) lo social (social media y social business), c) la movilidad (tecnologías,
dispositivos y redes), d) Big Data (información en grandes volúmenes de datos).
La consultora Gardner denomina al nexo y convergencia de estas cuatro fuerzas, El Nexo de la Fuerza (The nexus
force). La interdependencia de estas fuerzas está modificando las relaciones entre los usuarios y creando nuevos
modelos de negocios.
El cambio social, está configurando una nueva forma de comportamiento de las empresa, y también la manera
que los clientes de relacionan con las empresas.
Asimismo, los consumidores se relacionan entre si formando comunidades sociales que están influyendo en la
cultura organizacional y en la cultura de las empresas.
CONSUMERIZACIÓN, GAMIFICACIÓN, CROWDSOURCING Y CROWDFUNDING son también nuevas tendencias,
tecnológicas, sociales, económicas y de consumo que marcaran a las empresas y los consumidores en el futuro
cercano.
El nexo de la fuerza
La aceleración en la adopción de la nube está permitiendo a las organizaciones acceder a servicios y
funcionalidades impensables de otra manera. Asimismo, trae velocidad de operación, reducción de costos y
flexibilidad.
La movilidad define cada día más las relaciones sociales y el entorno del cliente en las empresas, donde la
experiencia del usuario se vuelve vital.
Los medios sociales y sus diferentes variantes, Social Media, Social Business y Social Computing, está
configurando una nueva web interactiva donde la colaboración con los usuarios se ha convertido en el elemento
central de los sitios web.
Big Data se refiere a la información y su análisis, procedente de fuentes diversas internas y externas de la
organización y tipos de datos estructurados, no estructurados y semiestructurados. El tratamiento de grandes
volúmenes de datos está generando cambios en las empresas en sus métodos tradicionales, lo que seguramente
llevara a modificar el concepto de Data Warehouse empresarial.
El nexo de fuerzas describe la convergencia y mutuo reforzamiento de las cuatro tendencias. Las fuerzas se
combinan entre sí para proporcionar una tecnología ubicua que llega al usuario con una Consumerizacion de TI.
Consumerizacion de TI
El concepto Consumerizacion se refiere a la tendencia actual por la cual los empleados de la empresa utilizan sus
dispositivos y aplicaciones de particulares para realizar su trabajo.
Entre estos dispositivos se encuentran; Teléfonos inteligentes (smartphones), Laptops y Tablets de sus propios
dueños con sus propios planes de datos externos.
La Consumerizacion tiene un enorme impacto en el modo en que los departamentos de TI de las empresas
protegen los puestos de trabajo y los datos corporativos.
Es una de las consecuencias de las tecnologías BYOD, la Consumerizacion es una tendencia tecnológica mas que
una tecnología en si.
Cuando los empleados llevan sus dispositivos al trabajo (BYOD) y los utilizan para compartir información,
archivos y datos dentro y fuera de la oficina, a TI le resulta difícil mantener la visibilidad y el control.
Esto ha generado una nueva tendencia, denominada Consumerizacion de las Tecnologías de la Información,
que incluye el BYOD, el uso de servicios externos en la nube y almacenamiento tanto en la nube y los medios
sociales.
Esta tendencia, esta transformando rápidamente el modo en el que funcionan y funcionaran los entorno de Ti
Corporativos en el futuro.
La mayoría de los usuarios actuales tienen acceso a sistemas informáticos potentes y a internet de alta velocidad
en sus hogares. Aplicaciones como Facebook y Twitter forman parte de sus vidas cotidianas.
Por lo tanto a medida que la tecnología avanza y tiene impacto en sus vidas los usuarios se acostumbran a la
potencia y comodidad de las aplicaciones Web 2.0, a la flexibilidad del intercambio de datos con
almacenamiento basado en la nube al correo web, disponible todo en cualquier dispositivo y en distintas
locaciones.
Este movimiento ha transformado la forma de trabajar de empleados y empresas. Aunque no todos los
directivos de TI llaman a ese fenómeno Consumerizacion, la mayoría se ha enfrentado ya a los retos que el
fenómeno implica.
La Consumerizacion ha transformado oficinas en entornos donde los empleados pueden llevar sus propios
dispositivos.
El ascenso de los dispositivos móviles ha generado que ya no solo utilicemos los dispositivos clásicos que utilizan
Windows y Mac, sino que los empleados pueden utilizar dispositivos con sistemas operativos iOs, Android, o
Windows Phone.
¿Como puede beneficiarse la empresa de la Consumerizacion?
Los beneficios empresariales derivados de poder poner los datos y las aplicaciones empresariales a disposición de los
trabajadores móviles resultan evidentes. Estos son:
A. La Consumerizacion mejora la productividad de los empleados que trabajan a distancia.
B. Se consigue una mayor satisfacción del cliente.
C. Se obtienen mayores tasas de retención de empleados con talento.
D. Se reducen los costos de TI en operaciones y licencias de hardware y software.
Las empresas pueden beneficiarse del BYOD y la Consumerizacion si aplican una estrategia que reduzca los
riesgos de seguridad, la exposición financiera y la complejidad de la gestión.
Por eso el equipo de TI buscara:
a) Recuperar la visibilidad y el control mediante la gestión de los datos de la empresa y la limitación de la
responsabilidad sobre los dispositivos personales.
b) Compartir datos corporativos de forma confidencial con acceso seguro, copia de seguridad y archivos
compartidos.
c) Proteger los datos independientemente de su ubicación.
Video sobre aplicación de la Consumerizacion: [Link]
Gamificación.
La Gamificación se refiere a dinámicas y mecánicas de juegos que hemos de utilizar en ámbitos no lúdicos con el
fin de lograr un determinado objetivo.
La Gamificación supone llevar la teoría y el diseño de los juegos a las aplicaciones para hacerlas mas atractivas y
adictivas.
La teoría de juegos es un área de las matemáticas que estudia diferentes modelos en el comportamiento
estratégico de jugadores.
La Gamificación puede incrementar las ventas, la colaboración y el intercambio de información entre empleados
y socios así como para aumentar la satisfacción de los clientes.
Esta técnica consiste en la aplicación del diseño de juegos digitales a ambientes no lúdicos tales como los
negocios y los eventos de impacto social. Los videojuegos son la forma dominante de entretenimiento de
nuestro
tiempo y son herramientas poderosas para la motivación del comportamiento.
Es también una práctica utilizada en los negocios que ha explotado en los últimos años. Las organizaciones están
aplicando estas técnicas en áreas como el marketing. Recursos humanos, mejora de la productividad,
sostenibilidad, salud, etc.
La aplicación de los conceptos y técnicas de diseño de juego están estrechamente relacionadas con las técnicas
de motivación y diseño eficiente entre los cientos de millones que los utilizan.
¿Dónde utilizar la Gamificación?
La Gamificación puede utilizarse en cualquier ambiente, desde el sector publico hasta el sector privado. Ofrece a
las organizaciones una vía para mejorar su modelo de negocio.
La clave para lograrlo esta en que se aplique bien. Organizadores y empresas las utilizan para todo tipo de
proyectos centrados en empleados, consumidores o la misma compañía.
En el caso de los empleados se lo pude utilizar en el ámbito mismo de la empresa para motivarlos o lograr una
mayor implicación corporativa, o un aumento de su productividad dentro del horario laboral.
También se puede utilizar Gamificación con fines sociales para lograr que los ciudadanos se sensibilicen con
temas a los que no le prestan demasiada atención.
Como ventajas de la Gamificación podemos destacar:
a) Aumenta la visibilidad y el reconocimientos de marca: se ofrece al usuario un proyecto nuevo, que además
le entretiene. Por otra parte al participar le otorga puntos y supera contrincantes, obteniendo recompensas
a cambio.
b) Mejora el posicionamiento de la organización: al usar esta técnica la corporación se posiciona como
empresa innovadora dentro de su sector. Al ser una técnica nueva aun no muy utilizada, ser el primero en
lanzarlo posiciona mejor a quien haga punta con esta opción.
Crowdsourcing.
El Crowdsourcing (externalización por multitudes o externalización publica) es un nuevo modelo de negocios que
muchas organizaciones están utilizando en los últimos años como una alternativa a la externalización típica que
ofrecen las empresas para realizar proyectos que no pueden llevar a cabo con sus propios recursos físicos o
humanos.
Propone problemas y recompensas a quienes solucionen el problema en cuestión.
La externalización publica intenta reemplazar los contratos selectivos y la formación especifica de fuerzas de
trabajo mediante la participación masiva de voluntarios y la aplicación de principios de auto organización.
El Crowdsourcing es la acción de externalizar tareas o actividades tradicionalmente realizadas por empleados,
ingenieros, científicos de la misma empresa hacia comunidades externas, mediante convocatorias públicas,
normalmente por la red.
El Crowdsourcing es un modelo distribuido de producción y resolución de problemas. Normalmente, la
resolución de los problemas se propone a un grupo desconocido y colectivo de especialistas o expertos en forma
de convocatoria pública abierta que lleva aparejada la obtención de premios y recompensas una vez resuelto
favorablemente el problema de modo individual o colectivo.
Existen ej. de varias grandes empresas que han recurrido y seguirán recurriendo a esta modalidad tales como;
Boeing, Netflix, Dupond, que han buscado soluciones a sus problemas de forma masiva a través de iniciativas
como InnoCentive (Procter & Gamble), iStockphoto (más de 30.000 fotógrafos aficionados), [Link]
(programadores), etc.
El Crowdfounding se refiere a la financiación en masa o a la micro financiación colectiva.
Es decir, la cooperación colectiva se lleva adelante por personas que crean una red para conseguir dinero u otros
recursos.
En estos proyectos se suele utilizar internet para financiar esfuerzos o iniciativas de otras personas u
organizaciones, el concepto es muy sencillo, una personas o grupo que busca inversores establece un perfil en
sitios de Crowdfounding y a continuación describen en detalle el proyecto por el que esta solicitando los fondos.
A partir de ahí cualquier persona o institución con acceso a la red se puede convertir en un posible socio,
inversor o simplemente un donante.
El proceso de invertir pequeñas cantidades en empresas que están naciendo no es nuevo, el Crowdfounding
difiere de los modelos tradicionales de financiación en su componente social, ya que utiliza preferentemente los
medios sociales como espina dorsal del proyecto.
El Crowdfounding tiene un fuerte componente de red social que es la cooperación colectiva llevada a cabo por
personas que realizan una red para conseguir dinero u otros recursos; se suele utilizar internet para financiar
esfuerzos e iniciativas de otras personas u organizaciones. Este método puede ser utilizado para muchos
propósitos, desde artistas buscando apoyo, campañas políticas, producción de películas, etc.
El Crowdfounding esta ayudando al nacimiento de nuevas empresas, muchas de estas relacionadas con el sector
de TI. Entre 2013 y 2014 movía una cifra de 1.500 millones de dólares, también se ha explotado como medio de
financiación de proyectos innovadores.
Su objetivo es financiar la puesta en marcha o la expansión de una actividad mediante la aportación colectiva de
fondos recaudados a través de la web.
Se diferencia de otros mecanismos tradicionales de financiación en que, en los proyectos de financiación
ordinarios, el retorno para el inversor es puramente económico, mientras que en los inversores de
Crowdfounding el retorno se mide de diferentes formas: contraprestaciones físicas, entrega de productos,
acciones y en algunos casos, las inversiones se suelen hacer a fondo perdido, si no hay beneficios para el
proyecto.
Las plataformas de Crowdfoundin están facilitando la creación de nuevas empresas innovadoras a lo largo y
ancho del mundo gracias a la creación de nuevos modelos de financiación que está produciendo grandes
emprendedores en entornos tecnológicos especialmente, pero también en ambientes culturales, deportivos,
industriales.
Kickstarter es seguramente la plataforma más conocida en el mundo y creadora de numerosos proyectos.
Características del Crowdfunding.
Existen varios tipos de Crowdfounding:
A. Donación: los inversores hacen donaciones financieras sin recibir un retorno tangible a cambio.
B. Recompensa: los inversores hacen una donación que tiene un retorno o recompensa.
C. Compra por adelantado: la contribución financiera es básicamente una compra por adelantado del producto o
servicio.
D. Equidad: los inversores reciben un interés relacionado con las ganancias del negocio que están ayudando a
financiar.
Los beneficios del Crowdfounding son claros: herramientas de emprendimiento con medios de inversión, de
financiaron y el uso de las redes sociales como soporte para la puesta en marcha del proyecto.
Los riesgos también son elevados, principalmente, la posible estafa a los inversores, para lo cual los especialistas
recomiendan que, si bien ninguna inversión está libre de riesgos, es preciso que cualquier proyecto de
Crowdfounding al igual que sucede con cualquier otro proyecto empresarial, tenga un plan de negocio y unas
condiciones claras de inversión.
El Crowdfounding está contribuyendo al nacimiento de nuevas empresas, muchas de ellas del sector de TI.
Una propuesta de empresa del futuro: la empresa social.
Las empresas tanto grandes como medianas y pequeñas están involucradas en un proceso de transformación
marcado por plataformas tecnológicas y definidas por la convergencia de lo social, lo móvil, y el cloud (la nube),
en una tendencia conocida como SoMoClo. Estas tendencias vienen también impulsadas por las nuevas
tecnologías de Big Data e Internet de las Cosas.
Estas tendencias tecnológicas son síntomas de la evolución del consumo de tecnología. La sincronización de las
aplicaciones móviles y de escritorio, en la nube y las tendencias SoMoClo deben integrarse en la empresa, y es
necesario por parte de las organizaciones adoptar estrategias de migración a la nube junto a las tendencias ya
muy implantadas, sociales y móviles, aprovechando los grandes volúmenes de datos, tanto provenientes de
medios sociales, medios móviles, como todos aquellos provenientes de sensores, datos biométricos, etc.
La empresa de la segunda mitad de la década, la empresa social, deberá prepararse para afrontar los retos
actuales y futuros.
Características de la empresa social.
a) Móvil y conectada: Uso de dispositivos móviles, teléfonos inteligentes, tablets, laptops,, lectores de libros
electrónicos, consolas, etc.
b) Social: usar tecnologías y medios sociales.
c) En la nube: modelos y servicios.
d) Preparada para gestionar los grandes volúmenes de datos: Big Data procedentes de todo tipo de fuentes.
e) Explotación de los miles de millones de cosas: objetos existentes y futuras, obteniendo la rentabilidad de la red
que los interconecta; la Internet de las Cosas.
La empresa del futuro ha de estar hiperconectada, y por ello requiere de una rápida renovación de la tecnología
para permitir el acceso conectado desde cualquier lugar, momento y dispositivo.
Las dos plataformas tecnológicas ya presentes en la sociedad y lo negocios; Cloud Computing y Big Data serán lo
motores que mostrarán las estrategias de las empresas y de los emprendedores.
Las restantes tendencias tecnológicas que han de influir en la empresa del futuro y que deberán ser
consideradas, son: 1. Ciudades inteligentes (Smart Cities)
2. Internet de las cosas.
3. Crowdsourcing.
4. Crowdfounding.
5. BYOD.
6. Consumerizacion.
7. Gamificación.
A estas tendencias, actualmente debemos agregar, la impresión en 3d, la televisión inteligente (Smart TV), y las
televisiones de alta resolución (4K).
OMNICANALIDAD
Los clientes interactúan con las empresas utilizando diversos canales simultáneamente y en mucho casos, hacen
una pausas entre transacción y transacción. Esto conlleva que para que un cliente concrete una y transacción
quizás deba someterse a varias interacciones, que pueden ser sobre el mismo canal o por distintos canales.
La multicanalidad ya no es suficiente debido a que no se cuenta con el contexto del cliente a través de distintos
canales. Por eso la multicanalidad es una experiencia que ha evolucionado hacia la Omnicanalidad para lograr
que el cliente experimente una interacción homogénea, independientemente del canal que utilice.
Entendemos Omnicanalidad a la estrategia y gestión de canales que tiene como objetivo la integración y
alineación de todos los canales disponibles, con el fin de brindar a los clientes una experiencia de usuario
homogénea a través de los mismos.
Esto permite que los clientes puedan continuar los procesos que están llevando a cabo por cualquier canal, de
forma indistinta del canal por el cual lo iniciaron.
El centro de la estrategia de Omnicanalidad es el cliente, quien consume los servicios provistos a través de los
distintos canales, y a quien las empresas deben convencer para que utilicen los canales, mediante una oferta
atractiva de servicios por medios digitales.
El objetivo de la empresa debe ser ofrecerle al cliente una experiencia única, independientemente del canal que
utilice.
Los procesos implementados son transversales a los canales, para una entrega integrada de los servicios
provistos por las empresas. Estos procesos pueden ser iniciados por un canal y continuados por otro, dado
que la información asociada al proceso y la lógica y transaccional es independiente del canal que este
presentando la información en un momento dado.
La expectativa Omnicanal es lograr comunicarse e interactuar en el momento. Esto se da cuando frente a
una consulta, puedo abrir un chat o una video llamada o incluso una llamada telefónica reversa, e donde en
pocos instantes logro comunicarme con una persona que esta al tanto de la operación que estoy realizando.
Implementar exitosamente una estrategia Onmicanal debe motivar a los clientes a trasladarse a canales
digitales y eso tiene la gran ventaja de que el canal presencial es en general para todas las industrias, el mas
costoso de mantener.
La Omnicanalidad permite también la gestión de campañas con la información de los canales
completamente integrada.
LOS DESAFIOS DE IMPLEMENTAR UNA ESTRATEGIA OMNICANAL.
Lograr una integración de canales que permita aumentar la satisfacción de los clientes interactuando con
distintos canales y desestimando el canal presencial presenta varios desafíos:
1) La consistencia entre canales es soportada por la gestión de la información: la información del cliente debe ser
consistente a través de los distintos canales, para que un cliente pueda continuar con sus procesos en cualquier
canal y no deba ingresar múltiples veces la información.
2) La usabilidad y la estética de los canales también deben ser consistentes con la estética de la empresa: las
empresas deben brindar una experiencia de cliente homogénea y consistente a través de los distintos canales y
para esto deben implementar interfaces usables.
3) La Omnicanalidad permite que la empresa pueda ser proactiva con sus clientes: para esto es imprescindible
contar con herramientas de análisis en tiempo real.
4) El servicio post venta tiene que ser enfocado de forma Omnicanal y con respuesta casi inmediata: Usando los
canales y la información que se recolecta, frente a consultas o necesidades de interactuar con personas.
Video sobre Omnicanalidad: [Link]
(8/11/22) Unidad 8 INTELIGENCIA ARTIFICIAL
INTELIGENCIA ARTIFICIAL
• El término fue inventado por John Mc Carthy, Marvin Minsky y Claude Shannon en 1956.
• Los primeros pasos fueron gracias a Alan Turing. Propuso una prueba llamada “Test de Turing” para evaluar la
capacidad de una máquina en actuar de forma similar a una persona.
• El test consistía en que dos interlocutores mantenían una conversación. Un juez debía determinar cuál era
humano.
• Uno de los primeros sistemas que logró la prueba fue ELIZA (programa del MIT en 1966).
• Este sistema buscaba palabras clave de su interlocutor y respondía con frases acordes almacenadas.
• ALICE fue el primer chatbot desarrollado en 1995.
Deep Blue vs. Gary Kasparov
• En 1997 la computadora Deep Blue (IBM) le ganó al campeón del mundo Garry Kasparov.
• Se desarrolló un software con un algoritmo permitía ir mejorando a partir de cada jugada.
• Adicionalmente le fueron cargadas 700 mil partidas para tener una completa base de datos.
Las grandes empresas
• IBM Watson se ha convertido en el estandarte de los sistemas cognitivos, razonamiento y aprendizaje
automático.
• Su tecnología se utiliza para ayudar en tratamientos contra el cáncer, el comercio electrónico, la lucha contra el
ciber crimen o la banca internacional.
• Google logró conquistar el juego GO, de origen oriental y complejo.
• Google compró la empresa DeepMind que hoy es la empresa con mayor cantidad de expertos en Deep Learning.
• Twitter compró MadBits de inteligencia visual que puede entender el significado de imágenes y sus relaciones.
• Apple compró Perceptio que puede clasificar fotos usando IA.
• Facebook desarrolló asistentes virtuales y chatbots que pueden reconocer imágenes y videos, y pueden
responder preguntas sobre textos.
Jugaron alguna vez a AKINATOR?
• AKINATOR es un juego que te pide que pienses en un personaje (humano o animal, real o ficticio), y a través de
preguntas intenta adivinarlo. Y LA ENORME MAYORÍA DE LAS VECES LO LOGRA!!!.
• Utiliza un algoritmo secreto.
• Aprende en base a sus derrotas, pero es muy probable que también guarde el recorrido de cada victoria.
• Los usuarios pueden introducir los personajes cuando Akinator no acierta.
• ¿Tendrá que ver con IA o simplemente son los mismos usuarios los que van construyendo la base de datos?
• De todos modos, el algoritmo casi siempre acierta.
• Su página es [Link].
¿Definimos Inteligencia Artificial?
• Debemos entender IA como ciencia (tarea de análisis), y como ingeniería (ingeniería del conocimiento).
• IA tiene cuatro grandes objetivos; modelar, formalizar, programar e implementar máquinas soporte capaces de
interactuar de forma no trivial.
• La IA llegó a la sociedad de un modo práctico, por lo cual podemos redefinirla como Inteligencia Artificial
Aplicada.
• La IA va evolucionando de la mano de los algoritmos de aprendizaje automático (Machine Learning) y
aprendizaje profundo (Deep Learning). También influyen los lenguajes de procesamiento natural, las redes
neuronales artificiales.
• Las máximas áreas de aplicación son Big Data, Internet de las Cosas, Realidad Virtual y Aumentada y
Ciberseguridad.
Machine learning, deep learning y redes neuronales
Russell y Norvig clasifican a la inteligencia artificial en cuatro tipos:
Sistemas que piensan como humanos: intentan emular el pensamiento humano (ej. Redes neuronales
artificiales)
Sistemas que actúan como humanos: imitan el comportamiento humano (robótica)
Sistemas que piensan racionalmente: intentan imitar el pensamiento lógico racional del humano (sistemas
expertos)
Sistemas que actúan racionalmente: Tratan de emular el pensamiento racional de los humanos (agentes
inteligentes)
Aprendizaje Automático (Machine Learning)
• Busca construir algoritmos que permiten a las computadoras aprender a partir de conjunto de datos, y así
obtener un modelo que permita realizar predicciones basándose en esos datos y no en instrucciones estáticas.
• Toma experiencias de la estadística, la computación compleja, y la ingeniería.
• El Machine Learning hoy está al alcance de cualquier programador.
• La máquina aprende a partir de la experiencia. Se alimenta de ejemplos para luego aplicar patrones de
entrenamiento de los datos.
• Aprende parecido al cerebro humano.
Machine Learning – Categorías de Aprendizaje
• Aprendizaje supervisado: Requiere intervención de humanos para indicar lo que está bien y lo que está mal.
• Aprendizaje no supervisado: Se entrena a una red con un gran número de ejemplos, pero sin decirle qué buscar.
Ejemplo en seguros análisis para detectar fraudes.
• Aprendizaje reforzado: Es un híbrido de los dos anteriores. Consisten en entrenar una red neuronal para que
interactúe con su entorno.
• Aprendizaje profundo: Deep learning. Usa redes neuronales para mejorar el reconocimiento de voz, la visión por
computadora y el procesamiento del lenguaje natural. Son complejos sistemas matemáticos que aprenden por sí
solos. El problema es que el sistema pueda comportarse de forma totalmente inesperada. Se somete a menor
supervisión.
Redes Neuronales Artificiales
• Son sistemas de programas y estructuras de datos que se aproxima al funcionamiento del cerebro humano.
• Una red neuronal suele usar varios procesadores que trabajan en paralelo (cada uno de ellos con una parte del
conocimiento y acceso a una memoria local).
• Al principio la red neuronal se alimenta con una gran cantidad de datos y reglas.
• Un programa indica a la red cómo comportarse en respuesta a un estímulo externo, o puede iniciar la actividad
por sí misma.
Bots y Chatbots
• Un bot es un software de IA diseñado para realizar una serie de tareas por su cuenta y sin ayuda del ser humano
(ejemplo hacer una reserva en un restaurante, marcar una fecha en el calendario, mostrar información a
usuarios.
• El bot se puede comunicar con los seres humanos manteniendo una conversación con las personas utilizando
lenguaje natural.
• Un chatbot es el modelo de bot más popular, capaz de simular una conversación con una persona y se ha
integrado a las aplicaciones de mensajería.
Asistentes virtuales
• Tienen especial impacto en la atención al cliente, ventas y recursos humanos.
• Los chatbot se están convirtiendo en los canales preferidos de comunicación de las empresas.
• Sustituyen o amplían funciones del Call Center, automatizan ventas, aportan a las campañas de marketing en
redes sociales, relaciones con proveedores, etc.
• Pueden transformarse en secretarios y asesores virtuales personales.
• Existen plataformas de mensajería que permiten que uno se construya su propio bot.
Asistentes Virtuales – Asistentes por voz
• Siri de Apple • Whatsapp • Wechat
• Cortana de Microsoft • Facebook • Snapchat
• Google Assistant • Messenger • Skype
• Bixby de Samsung • Telegram
• Alexa de Amazon • Slack
Chatbots y Asistentes virtuales
• Ambos términos se confunden a menudo.
• Los chatbots se usan como interfaces de adquisición de información.
• Los asistentes virtuales apoyan en la dirección y gestión de negocios recordando reuniones, agendando citas,
etc.
• Los chatbots no son tan inteligentes.
• Los asistentes virtuales tienen un gran rango de funciones.
• Los chatbots pueden perder el contexto de una conversación.
• Los asistentes virtuales siempre están en la conversación.
• Los asistentes virtuales son capaces de realizar tareas de mayor complejidad.
• Los chatbot son reemplazo de las FAQ (preguntas frecuentes).
El conflicto hombre - máquina
• Las máquinas son muy superiores al operar y realizar millones de operaciones por segundo.
• Las personas tienen mayor capacidad por ahora para comprender el entorno y uso de la creatividad.
• Si un sistema está altamente automatizado y no se diseña para convivir con las personas el ser humano que lo
supervise no sabrá si está funcionando bien. Podría no ser capaz de dar un diagnóstico certero y tomar el control
en tiempo real.
ÁREAS DE APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL
Algunas Áreas de Aplicación de la IA
• Control y Gestión • Ingeniería • Procesos de datos
• Cartografía • Equipamiento • Finanzas
• Fabricación • Software
• Educación • Armamento
Conducción Autónoma
• Se apoyan en Deep Learning
• Aprenden sobre la marcha por dónde circular
• Todo se comparte para que el automóvil se vuelva más hábil
• Evitar colisiones y accidentes
Videojuegos
• Objetos de juego pueden tomar patrones reales de los jugadores para tener experiencias más realistas
• Pueden analizar el comportamiento de los jugadores humanos y crear objetos en consecuencia
Ofertas
• Amazon, Microsoft y Google (entre otros) usan IA para analizar nuestras preferencias y hacernos
recomendaciones que puedan interesarnos
• Se logra el marketing uno a uno y publicidad personalizada
• Reconocimiento de patrones
Automatización de Industrias
• Automatización de procesos industriales
• Sistemas de calidad con visión artificial
• Seguridad
Reconocimiento facial en tiempo real
• Iphone X usa reconocimiento facial para el desbloqueo de Smartphones
• Las policías de varios países lo utilizan para encontrar delincuentes
• En Buenos Aires se ha logrado un resultado muy satisfactorio
Diagnóstico medico y medicina en general
• Se utilizan redes neuronales artificiales como sistema de apoyo a las decisiones en diagnósticos
• Interpretación de radiologías asistidas por computadoras
• Análisis del ruido cardíaco
Finanzas
• Los bancos usan IA para organizar operaciones, invertir en acciones y administrar propiedades
• Se utilizan redes neuronales artificiales para detectar pagos o reclamos fuera de lo normal. Se marcan para que
los humanos los investiguen
• Seguros
Servicios de atención al cliente
• Se crean asistentes automatizados en línea
• Permiten la reducción de costos de operación y capacitación
• Puede utilizarse IA para contestar llamadas en contact centers
Unidad 8 INTERNET DE LAS COSAS (IOT)
El Concepto Internet de las Cosas
Definición Internet de las cosas consiste en un nuevo sistema tecnológico Internet Poco a poco, las
donde tanto personas como objetos puedan conectarse a Internet en cualquier “cosas” que tenemos en
momento y lugar, y de esa forma ganar inteligencia y conversación entre los nuestros domicilios se irán
objetos. conectando a Internet
Mc Kinsey definió: “Internet de los objetos” como SENSORES y ACTUADORES Strategy: Aparece la
incrustados en objetos físicos, enlazados mediante redes con cables y sin ellos, comunicación entre las cosas
que a menudo utilizan el mismo protocolo de Internet (IP) que conecta a la red. M2M (machine to machine)
¿Qué es Internet de las Cosas?
• IoT es un gran ecosistema que traerá grandes cambios a la sociedad y a la vida de los habitantes.
• Vivimos en un mundo conectado en el que cada día aparecen más dispositivos que pueden conectarse a
Internet.
• Dado el tamaño de los sensores y el costo, es muy fácil integrarlos en hogares, oficinas, lugares públicos, etc. De
este modo, cada objeto puede ser conectado y manifestarse en la red.
• Los sensores se conectan a Internet a través de redes (inalámbricas o cableadas).
• IoT es una nueva dimensión de Internet y una nueva generación de servicios que significa que cualquier objeto
se puede comunicar entre si y a Internet, en cualquier lugar.
Aplicaciones de IoT
Algunos tipos de actividades y servicios impactados por IoT son:
• Redes Inteligentes • Energía eléctrica Inteligente
• Movilidad Inteligente • Servicios Públicos Inteligentes Temas que
• Ciudades Inteligentes • Agua Inteligente Veremos
• Edificios Inteligentes • Industria Inteligente
en La clase
• Hogar Inteligente (domótica) • Economía Inteligente
de mart
• Transporte Inteligente • Comercio Inteligente
• Automóviles Inteligentes • Agricultura Inteligente
• Estacionamiento Inteligente • Ganadería Inteligente
• Salud Inteligente • Recolección de residuos Inteligente
• Vida Inteligente
Tecnologías y Tendencias habilitadoras de IoT
IoT implica diferentes tendencias tecnológicas que convergen y trabajan juntas para unir al mundo físico con el
virtual. Ellas son (entre otras):
• Sensores y actuadores • Redes inalámbricas • Smart Grids (redes
• Internet • Redes 5G Un Ecosistema inteligentes)
• Protocolo de Internet IPv6 • WiFi6 Importante Que • Nuevas tecnologías de carga
• RFID • Geolocalización en su Conjunto de baterías
Favorece a IoT
• Reducción de costos de • Nanotecnología • Blockchain
hardware • Tecnologías wearables • Realidad Virtual y
• Cloud Computing (ponibles) Aumentada
• Crecimiento de la capacidad • Big Data y Analítica • Robótica
de procesamiento • Inteligencia Artificial • Drones
Internet de las Cosas
• Los sensores son fácilmente integrables en
hogares, entornos de trabajo y lugares
públicos.
• Cualquier objeto puede ser conectado y
“manifestarse” en la red.
• De este modo todo objeto puede ser una
fuente de datos
• Internet de las cosas hace crecer
exponencialmente la cantidad de datos en
la red.
• Se empiezan a configurar las ciudades
inteligentes (Smart Cities) a través de los
dispositivos inteligentes
• Los servicios públicos, edificios, hogares, automóviles comienzan a conectarse entre si
• Se ahorra energía y se rentabilizan recursos
• Por ahora, los costos de instalación resultan elevados
• Desde el punto de vista social es necesario aportar experiencia
• Tres capas básicas:
• Miniaturización: facilita la conexión de las cosas
• Superación de la limitación de la infraestructura móvil
• Proliferación de las aplicaciones y servicios que ponen en usa la información
¿Qué son los sensores?
• Un sensor es un dispositivo que mide fenómenos del mundo físico.
• Puede detectar: luz, humo, vapor, agua, movimiento, humedad, fuerza, torsión, temperatura, electricidad,
viento, peso, ruido y muchas otras cosas.
• Para que funcione con el concepto de IoT, el sensor DEBE estar conectado a una red de datos.
• Puede convertir la información en una señar eléctrica y óptica.
• Los sensores toman la información en bruto que es leída de un dispositivo.
Capas de IoT Sensores
¿Qué son los controladores?
• Un controlador se utiliza para cambiar la configuración de un sensor (local o de forma remota).
• En un sistema de hogar inteligente, el controlador es el “cerebro” del sistema.
• Recolecta la información que proveen los sensores, la procesa y envía una respuesta en forma de orden a los
actuadores.
• Suelen poseer interfaces de usuario, para que éste tome conocimiento del estado del sistema, además que
permite programar sus componentes.
• Son amigables para su uso.
¿Qué son los actuadores?
• Son las salidas de los dispositivos.
• Permiten que los dispositivos realicen alguna tarea en su entorno. Pueden convertir energía eléctrica en
mecánica, produciendo movimientos en el mundo real.
• Pueden controlar un motor, encender, apagar, levantar una persiana… por ejemplo.
Distancia vs Consumo vs Velocidad
Latencia
Es el tiempo en que tarda en transmitirse un paquete dentro de la red
Influye en los tiempos de respuesta
Algunos factores de latencia son: la tecnología de acceso a internet, la distancia entre los dos puntos que quieran
establecer la conexión y la capacidad del dispositivo en el que nos conectamos.
• El PING es una de las formas en la que podemos hablar de latencia. Permite medir el desfasaje en tiempo que
tenemos entre el servidor y nosotros
• En los juegos, el PING (o LAG) puede ser un factor decisivo en una partida
• Se espera que con 5G, la latencia caiga idealmente a valores cercanos a 1 milisegundo
• El control de objetos a distancia, o la conducción de automóviles a distancia tiene en la latencia u serio
inconveniente, ya que el retardo puede llegar a ser decisivo
Privacidad en IoT
• Tenemos que tener en cuenta que la privacidad ayuda a reforzar la confianza de los usuarios en los servicios en
línea.
• Es necesario promulgar leyes de privacidad de los datos fuertes e independientes de la tecnología, y de ética en
la recolección de los datos.
• La privacidad es un derecho.
• Resulta muy importante garantizar la privacidad en IoT, ya que cada sensor permanentemente toma datos del
medio ambiente, y en conjunto con Big Data pueden causar un impacto de importancia en el tema.
Bastón 4.0 para No Videntes
• We Walk, un bastón inteligente que fue creado por el ingeniero turco Kursat Ceylan, que tiene disminución
visual.
• El artefacto mejora la orientación de los usuarios no videntes.
• Está equipado con parlantes, un asistente de voz, Google Maps y sensores que transmiten pequeñas vibraciones
que advierten obstáculos por encima del nivel del pecho. También un panel táctil, un compás y baterías
recargables.
• Cuesta alrededor de 500 dólares.
• Se conecta con los smartphones a través de bluetooth.
15/11/22 UNIDAD 8 CIUDADES INTELIGENTES
¿QUÉ ES UNA SMART CITY?
La vida en las ciudades
El mundo acelera el proceso de urbanización.
La ONU menciona que
Las ciudades presentan una expansión mayor a los rurales.
en el 2050 el 70% de
Las personas buscan nuevas oportunidades laborales y de negocio
la población mundial
Los ciudadanos esperan mejores condiciones de vida
Se produce el boom de vivir en departamentos vivirá en ciudades
Se podrían incrementar ciertos problemas sociales
Argentina tiene el 92% de su población urbanizada
Las ciudades deberán estar a la altura de las necesidades a través de sus servicios
La vida en las ciudades
Hay un elemento que no podemos descuidar, y es el hecho que la ciudad no es nueva, existe, vive, tiene
historia
Tiene modelos de gobierno y gestión establecidos, por lo que dificilmente estemos hablando de la creación en
una ciudad, SINO DE LA MODIFICACIÓN en una ciudad.
La tecnología no será la que en solitario logre las modificaciones, sino la combinación con las acciones de
gobierno y participación ciudadana apoyará al cambio.
Una Ciudad Inteligente es una ciudad que.....
Intenta ser más soluciones creativas sostenible e innovadora que incentiva soluciones creativas
Mejora la calidad de vida de su población, haciendo más cómoda la vida de los ciudadanos
Produce mejoras en eficiencia, toma de decisiones, prestación de servicios urbanos y competitividad
Coloca a los ciudadanos en el centro de la escena Innovadora
Promueve una política de Gobierno abierto y Transparencia Eficiente
Promueve la participación y colaboración de los ciudadanos
Participativa
Planifica su crecimiento y establece una visión a largo plazo
Colaborativa
Utiliza las TIC como medio y no un fin en sí mismo.
Resiliente
Gobierno Abierto y Participación Ciudadana
Gobierno Abierto creación de un nuevo paradigma que permite que se amalgame la relación con los
ciudadanos.
Tres pilares: Transparencia, Participación y Colaboración. La relación será bidireccional, pero el gobierno a
través de la Transparencia, es quien debe dar el puntapié inicial.
Debe ser un facilitador para la mejora de la comunicación, mejora en la toma de decisiones, lograr credibilidad
en la sociedad, y creación de valor a partir de la participación más activa de los ciudadanos.
Logra un incremento de la credibilidad, compromiso con la sociedad, respeto hacia todos, y compromiso tanto
en la gestión, como en la compartición de conocimiento a través de la colaboración.
Agregado de más libro
Este concepto logra que los ciudadanos tengan una participación mucho más activa y que colaboren con el gobierno.
Llevar adelante una estrategia de Gobierno Abierto debe resolver y mejorar los siguientes aspectos:
o Solución de problemas de la sociedad
o Aporte y generación de valor para la sociedad
o Formulación de políticas públicas en conjunto con los ciudadanos
o Apertura de los datos públicos
o Aumento de la colaboración
o Incremento en el uso de las tecnologías de la información
o Construir confianza y mejorar el nivel de transparencia del gobierno
o Gestión más efectiva de los recursos
o Mejoras en los servicios públicos
o Solución de problemas más efectiva
Son cuatro los aspectos estratégicos más importantes sobre los que se debe apuntalar el Gobierno Abierto:
• Transparencia: el gobierno debe mantener informada a la sociedad sobre las decisiones que toma, y poder a
disposición la información de modo abierto para que pueda ser procesada por quien la necesite.
• Participación: en este aspecto es importante lograr que los ciudadanos se interesen por las actividades de
gobierno, se involucren, participen en ciertos debates o audiencias públicas. Para esto, se debe proveer de una
serie de canales de comunicación apropiados.
• Colaboración: Lograr que la sociedad contribuya con su conocimiento para el establecimiento de políticas y
servicios públicos. De este modo la sociedad mantiene una participación activa, que resulta esencial para el éxito
de un gobierno abierto.
• Rendición de cuentas: los funcionarios de gobierno deben justificar su accionar, responder rápidamente a los
requerimientos de la sociedad y asumir la responsabilidad de sus actos. Todo esto se traduce en la medición del
desempeño del gobierno.
Las fases de la evolución hacia Smart city
1. Vertical: servicios urbanos de tecnología para mejorar la gestión de la ciudad. Cada ámbito de gestión impulsa
los cambios de manera autónoma y de la mano de las empresas de servicios urbanos.
2. Horizontal: se desarrolla una plataforma de gestión transversal de los servicios. Se comienza a compartir
información para prestar servicios de manera más eficiente y para lograr economías de escala.
3. Conectada: se interconectan los servicios verticales a través de una plataforma de gestión. Se facilitan las
sinergias y el desarrollo de nuevos servicios de alto valor agregado.
4. Inteligente: se gestiona la ciudad de manera integrada y en tiempo real, generando un ecosistema basado en la
inteligencia compartida entre todos los agentes. Se toman decisiones de manera predictiva. Se logra la
inteligencia compartida.
Fuentes de Financiación de proyectos
Los proyectos de Smart Cities son costosos y requieren de una inversión considerable. Muchas veces, los
gobiernos no disponen del total de la inversión necesaria, por lo que es necesario buscar otras alternativas.
o Programas de participación público-privado: Empresas de tecnología y de servicios urbanos que pueden
patrocinar los proyectos. Es importante ver quién mantiene el control del proyecto.
o Bancos de Desarrollo: Ejemplo BID y CAF
Obstáculos en la financiación de estas soluciones tecnológicas:
o Elevada percepción de riesgo de inversión en soluciones innovadoras
o Incertidumbre acerca de las politicas de precios de la energía y de los combustibles fósiles
o Elevados volúmenes de inversión
o Largos periodos hasta alcanzar la madurez/rentabilidad
o Limitada capacidad de financiación pública: elevado déficit público municipal e Incapacidad para captar
fondos en mercados de capitales.
SERVICIOS PARA UNA SMART CITY
Algunos servicios de las cuidadas inteligentes
• Energías Renovables
• Smart Grids (redes eléctricas inteligentes)
• Smart Lighting (iluminación inteligente)
• Smart parking (estacionamiento inteligente)
• Smart Traffic (ordenamiento de tráfico inteligente)
• Seguridad Urbana
• Transporte Público
• Movilidad urbana
Redes eléctricas inteligentes
Sentidos bidireccional de la
energía. Uso de Blockchain.
Edesur permite que un
usuario sea generador.
Ciudad de Buenos Aires Inteligente Palabras Finales: Una Ciudad Inteligente…
Videos Recomendados
Servicios Smart Cities: Smart Grids en Holanda:
[Link] [Link]
Diseñar Smart Cities: Seguridad Vial inteligente:
[Link] [Link]
Smart Cities Finalndia: Inteligente Bus en China:
[Link] [Link]
UNIDAD 8: REALIDAD VIRTUAL Y REALIDAD AUMENTADA.
Video sobre realidad aumentada: [Link]
Presentación De La Realidad Aumentada
• ¿Qué es la realidad aumentada? La realidad aumentada (AR) es una tecnología que permite ampliar la realidad
añadiendo capas de información virtual a la información física que ya percibimos del mundo; es decir, combina
elementos digitales y reales.
• La forma clásica de verla es a través de datos sobreimpresionados sobre la visión del usuario o con objetos
realistas en 3D combinados con el mundo real.
• Pese a haber empezado en usos domésticos con los PC de sobremesa, esta realidad se está popularizando
gracias a la posibilidad de trabajar con ella en los smartphones y tabletas.
¿Cómo funciona la realidad aumentada?
• Para aparecer un producto o cualquier otro contenido, encima de la realizada, necesitamos detectar ese mundo
real de alguna manera.
• Lo que hace entonces el software (aplicación ) es detectar algunos puntos de referencia. Esas referencias pueden
ser de varios tipos.
• Marker 2D. Se trata de reconocer una imagen plana que nos da la referencia. Puede ser casi cualquier fotografía
o gráfico, una portada de revista, una foto, un diseño gráfico.
• Geolocalización. A través de una coordenada GPS se puede hacer aparecer un objeto 3D. En algunos casos,
funciona bien al aire libre, pero su principal handicap es la precisión.
• Reconocimiento 3D del objeto o del entorno. Esta técnica, llamada SLAM, se basa en el reconocimiento del
entorno o de un objeto 3D de manera óptica (basada solamente en la cámara).
• PC o Mobile, la realidad aumentada en la actualidad.
• La realidad aumentada va ligada inevitablemente al concepto de punto de vista subjetivo. De esta manera, lo
que conseguimos es hacer aparecer los objetos aumentados en la misma realidad que vemos con nuestros ojos,
ya que el punto de vista es el mismo, y que el efecto de magia se multiplique.
Esta es la gran aportación de los smartphones a la realidad aumentada y uno de los principales motivos que ha
motivado su despegue. Por lo tanto, la realidad aumentada Mobile aporta dos grandes ventajas con respecto a la
realidad aumentada en PC.
Esta es la gran aportación de los smartphones a la realidad aumentada y uno de los principales motivos que ha
motivado su despegue. Por lo tanto, la realidad aumentada Mobile aporta dos grandes ventajas con respecto a la
realidad aumentada en PC.
1. Facilidad de uso. Se abre una aplicación con un toque, apuntas a donde quieras que aparezca el objeto 3D y
ya lo ves. La realidad aumentada móvil funciona con aplicaciones y han de ser de extremada sencillez para
que todo el mundo pueda emplearlas.
2. Punto de vista subjetivo. Cuando tomas el dispositivo con la mano pasas a ver el mismo mundo que ves con
tus ojos, pero «aumentado». Y este es el estado actual de la tecnología.
Los 5 Secretos Para Maximizar La Experiencia De La Realidad Aumentada
Básicamente, la calidad de una producción de realidad aumentada estará marcada por la calidad del contenido y su
integración con la realidad. 5 secretos para maximizar esta integración:
1. Entre real y digital En un medio que busca mezclar la realidad «real» y la digital, precisamente la frontera entre
los dos entornos es la clave para integrarlos y generar la magia. Resulta decisivo difuminar esta frontera para
que el paso de digital a real sea lo más imperceptible posible.
2. iluminación Una correcta iluminación aportará un grado de integración enorme, sobre todo cuando trabajemos
con metales y otras superficies reflejantes. El hándicap está en que los dispositivos aún no son capaces de
detectar la iluminación del ambiente de una manera suficientemente concreta, por eso la técnica pasa por
generar un entorno digital con varios puntos de luz alejados del objeto principal.
3. Texturas Hay varias técnicas que permiten crear texturas fabulosas para los elementos 3D, pero está claro que,
cuanto más realistas sean, mayor calidad se obtendrá.
4. Interacción física con objetos Sigue un poco la lógica de la iluminación. Sabiendo dónde estará colocada la pieza
de realidad aumentada, se puede hacer que el 3D interactúe con su entorno.
5. Marcador integrado en ambiente Esto aplica tan solo a los usos con marcador, pese a que el marcador o marker
sea infinitamente más bonito que un QR o BIDI, a veces su diseño resulta demasiado visible.
La Aplicación Más Inmediata Para El Sector Industrial De Producto Y Las Ventas: Son Los Catálogos Con Realidad
Aumentada.
• El uso más vistoso, comercial y de entretenimiento, que muchas veces hace avanzar la tecnología por su poder
de seducción: la publicidad.
• El gran cambio que se está fraguando ahora mismo, del que veremos pronto novedades revolucionarias: el
Connected Worker o trabajador conectado.
• Otros usos en sectores como el turismo, la prensa y publicaciones, la arquitectura, la medicina, la educación, los
juegos y entretenimiento, y la cultura.
• Pokémon GO: el boom de la realidad aumentada (o dónde encontrar el Pokémon secreto) El verano de 2016
supuso una importante sorpresa para todo el sector de la realidad aumentada móvil. Por primera vez, una gran
franquicia hizo el lanzamiento mundial de una aplicación de realidad aumentada haciendo uso de la
geolocalización del móvil.
• Novedades Apple y Google: ARKit y ARCore Al gran empuje que supuso Pokémon GO para la tecnología, en el
verano de 2016, se suma otro gran empuje, en verano de 2017, de gran importancia para la realidad aumentada:
la aparición del ARKit de Apple, y consecuentemente ARCore de Google.
Es muy importante porque pasa página a la época de los markers. Ya no necesitamos un marcador para ver
realidad aumentada de calidad y asombrosamente útil. El dispositivo detecta el plano delante de ti y coloca el
objeto 3D encima, en tamaño real.
Video sobre Realidad Virtual: [Link]
PRESENTACIÓN DE LA REALIDAD VIRTUAL
• ¿Qué es la realidad virtual? La realidad virtual (VR) es una simulación de la realidad. La persona que usa la
realidad virtual siente que interactúa con elementos reales, aunque no lo sean en sentido físico. Va
estrechamente ligada al concepto de inmersividad, que significa «estar inmerso dentro de esta simulación».
• Para disfrutar de esta tecnología, a diferencia de la realidad aumentada, necesitamos un casco (o gafas) que
cubra todo nuestro campo de visión. Por definición, la realidad virtual sustituye nuestra realidad «real» por una
realidad alternativa, una realidad... Virtual.
• Todo lo que podemos ver en la realidad virtual depende de la potencia del hardware y de nuestra imaginación
desde entornos hiperrealistas que muestran diversos productos a dragones que vuelan en planetas imposibles y
las fantasías mas extremas.
Los 5 Secretos Para Maximizar La Experiencia De La Realidad Virtual.
1. Verosimilitud. Parece una obviedad, pero en la realidad virtual no lo es tanto. En cualquier software de realidad
virtual, toda la atención y casi toda la percepción sensorial del usuario depende del contenido, por lo que se
exige un mínimo de calidad, con respecto a los movimientos, calidad de los gráficos y verosimilitud con la
realidad.
2. Contenido 360. Otra obviedad, pero todo el contenido de la realidad virtual tiene que estar pensado para que el
usuario se pueda girar en todo momento y ver en cualquier dirección. La famosa «cuarta pared» de las artes
escénicas ya no existe: el público es uno más dentro de la acción.
3. Storytelling. Hasta ahora, todos los contenidos audiovisuales hechos para consumir en una pantalla se han
pensado con el cuadro de esta en mente. Todas las técnicas de cine van orientadas a esto: el arte, la fotografía,
el guion, la dirección. La realidad virtual rompe estas normas y, de repente, posibilita que el espectador o
usuario pueda centrar su atención en cualquier detalle que lo rodee; con todas las implicaciones que esto tiene a
nivel de guion, fotografía, rodaje, etc.
4. Distancia de la acción. Este punto supone un hándicap para el hardware que tiene la realidad virtual a día de
hoy. Debido a las resoluciones de algunas gafas, cuesta conseguir una visión a la lejanía de calidad.
5. Interacción. Resulta clave definir cómo se va a interactuar con los elementos en pantalla o menús, cuando sea
necesario, ya que, en la mayoría de las experiencias con tecnología móvil, el usuario tan solo dispone del
movimiento de su cabeza como elemento para interactuar.
Las mejores aplicaciones de la realidad virtual para las empresas.
• Los usos de la realidad virtual en la sociedad están, sin duda, en los límites de nuestra imaginación. La cantidad
de experiencias y utilidades que podemos crear en los próximos años seguramente escapan a lo que podemos
imaginar hoy.
• La explicación de productos a través de la realidad virtual permite explicar el funcionamiento de algunos
productos complejos o que requieren integración con el espacio. También productos a los que se quiere llevar a
un plano experiencial, como en el sector del lujo.
• Los catálogos con realidad virtual en un mundo en el que las experiencias se han convertido en un elemento
clave en el proceso de venta o el costumer journey, la realidad virtual se pone al servicio de la creatividad y la
publicidad.
Para los training y programas de formación de empleados u otros programas educativos, nos aporta una
gran distribución y unos ahorros de costes realmente significativos.
Por último, los sorprendentes usos de la tecnología en departamentos como los Recursos Humanos.
Comunicar valores, ambientes de trabajo y mensajes nunca ha estado tan en la mano como ahora.
EL FUTURO MÁS INMEDIATO.
• Como una de las tecnologías más disruptivas de la historia, la realidad virtual se empieza a expandir en multitud
de ámbitos de nuestras vidas. Y, por supuesto, las empresas más importantes están intentando ocupar sus
nichos.
• Muchas de las aplicaciones ya están disponibles y listas para usar, y sabemos que en el futuro veremos usos que
ahora nos resultan inimaginables, pero también hay unas cuantas propuestas para el futuro más inmediato que
se están acabando de pulir:
• VR social. Facebook Spaces ya es una realidad desde hace unos meses, aunque siguen perfeccionándola. Es la
nueva apuesta social para la realidad virtual. Mezcla del entorno virtual con su entorno de escritorio o Mobile.
Varias maneras de conectarte a Facebook » Avatares en torno a una mesa, en una conversación o compartiendo
contenidos multimedia.
• Creación de 3D con las manos, en el modo Oculus Mixed Reality. Aplicaciones para el aprendizaje, la formación y
estudios complejos. Todo esto con la ventaja que da tener acceso directo a mil millones de usuarios para los que
Facebook ya forma parte de su vida. Sin duda, el proyecto Oculus Go, con el que pretende inundar las casas de
gafas plug&play, va encarado a la rápida expansión de la realidad virtual.
• Entornos de trabajo. Varias compañías, entre ellas HTC, que con sus HTC Vive están trabajando muy en serio en
el entorno virtual, están en la línea de lograr permanecer en entornos virtuales de 6 a 7 horas al día; entornos
donde reunirse, diseñar, contactar con gente, consumir media
Video charla Ted sobre Realidad Aumentada y Realidad Virtual: [Link]
v=MD6YmvrPvjM
Video charla Ted sobre Realidad Virtual: [Link]