Tema - Lectura
Tema - Lectura
Problema.- Gran parte de los centros de cómputo tienen problemas con el control de los archivos de datos que se
resguardan.
Existen varios factores por los que una instalación pierde el control en cuanto a cantidad, contenido, tipo e
importancia de los archivos de datos que mantiene en resguardo. Esto se antoja inconcebible en un centro de
cómputo, cuya función es precisamente esa. Así, los desajustes más severos que enfrentan tales instalaciones son:
Pérdidas cuantiosas en impresión con datos erróneos tanto en formas pre-impresas como papel stock.
Necesidad de trabajos urgentes a deshoras y fines de semanas con objeto de reestructurar archivos mal
actualizados o perdidos.
Confusión para identificar a que áreas o sistemas corresponden los archivos resguardados.
Este problema atañe directamente a los jefes que permiten que el centro de cómputo se les desintegre en las
manos.
Sugerencias de solución
El primer factor que se debe establecer para abordar el problema de la falta de control de los archivos de datos, es
clasificar el tipo de datos con los que opera la instalación, y establecer un esquema por orden de importancia. Esto
podría ser como sigue:
* Archivos de producción.
Una vez clarificado el tipo de archivos y su importancia, se establecerá una identificación muy precisa para
determinar los niveles de respaldo para aquellos archivos vitales, históricos o de difícil recuperación.
* Resguardo local.
* Resguardo fuera de sitio.
Los archivos con resguardo fuera de sitio serán aquellos que por su importancia en la historia de la instalación sean
vitales en casos de perdidas o danos de los archivos locales para restablecer Cualquier accidente y que se puedan
reponer rápidamente. Estos archivos deberán estar en una bóveda contra accidentes, fuera y distante del centro de
cómputo donde se mantengan los respaldos necesarios como protección contra Cualquier desastre. En esta bóveda
deberán resguardarse básicamente archivos maestros, archivos históricos y archivos de difícil recuperación.
Esto deberá ser un aspecto respetado por todo centro de cómputo, no importa si es grande o pequeño, pues
ninguna instalación está exenta de actos de- terrorismo, accidentes o robos. Son posibilidades latentes que tienen
que ser cubiertas. Véase como seguro de vida, donde no se sabe cuándo puede ocurrir un accidente, ni cómo, pero
llegara; es entonces cuando habrá que estar preparado. Además, el costo de prevenir los daños a los archivos es
raquítico si lo comparamos con los beneficios que esto significa.
La identificación individual de cada archivo es el punto débil si no se planea en forma eficiente; es decir, la
consistencia, seguridad y asignación de una nomenclatura moderada pero segura, por si sola debe contestar las
siguientes preguntas:
* ¿A quién corresponde?
Desarrollar un análisis y elaborar el diseño de un sistema no es tarea sencilla, requiere de mucho tiempo de estudio
y dedicación. Representa una gran dosis de investigación y otro tanto de planeación. Implica bastante creatividad
por ambos lados, el usuario y el analista. Obliga a una labor fuerte de análisis de necesidades de información y, por
lo tanto, a un alto grado de conocimiento del medio para el Cual se hará el diseño. A continuación presentare los
estándares para la elaboración de un sistema.
El disparador normal que origina el desarrollo de un sistema surge como una solicitud que hace el usuario al área de
informática. En dicha solicitud destaca lo siguiente:
Las políticas. Los usuarios del sistema deberán establecerlas ya que éstas normarán los criterios más importantes
dentro de la filosofía del sistema.
Propuesta para mejorar el sistema.- Durante la investigación y recorrido de la información recopilada el analista de
sistema debe percatarse de las fallas del sistema vigente, para proponer mejorar el sistema en los siguientes
aspectos:
* Información fuente.
* Funciones clave.
* Procedimientos críticos.
* Costos.
Propuesta de factibilidad de automatización.- Después de haber efectuado la investigación y recorrido de la
información, el analista deberá evaluar el sistema y determinar si es conveniente su automatización efectuando un
esbozo general de la posible solución en caso de ser viable.
Podría presentarse el caso de que el sistema empleado en ese momento pudiera ser automatizado sin obtener
muchas ventajas, pero ser más costoso; esta situación debe ser expuesta por el analista, dentro del documento.
Durante el diseño del sistema, el trabajo del analista consiste en elaborar una o más opciones de automatización del
sistema que va a cumplir con los requerimientos de información de la unidad usuaria.
Cuando se diseña un sistema de procesamiento de datos, se debe considerar sobre todo el perfeccionamiento de
las operaciones y la reducción de los costos, así como la oportunidad y calidad de los resultados. Algunos de estos
objetivos son los siguientes:
* Objetivo general.
* Objetivos particulares.
* Usuarios
* Recursos
* Proveedores de recursos
A) Diagramación
* Sensibilidad
* Restricciones
* Adaptabilidad.
* Colapso.
* Puntos de control.
* Disponibilidad de recursos.
* Posibilidades de implantación.
De los servicios
La Coordinación de Servicios atenderá las peticiones de los usuarios que acudan a solicitar tiempo de
máquina, tanto individual como de grupo para su control. El alumno solicitará el servicio específico que
requiere, para que se le asigne la máquina que cumpla con esas expectativas, en un horario definido por la
coordinación. En períodos extraordinarios (vacaciones, cursos de verano, etc.) deberá establecerse el nuevo
horario.
Reservación Individual.
Para reservar individualmente algún equipo, el usuario deberá proporcionar su número de matrícula vigente de
estudiante.
Las reservaciones se respetarán hasta n minutos (especificar cuánto tiempo) después de la hora fijada,
pasados los n minutos se procederá a cancelar la reservación, pudiéndose asignar a otro usuario.
El usuario deberá cancelar con n hora(s) (especificar cuánto tiempo) de anticipación a la reservación para que no se
haga acreedor a la sanción correspondiente.
La reservación le otorga el derecho al acceso al equipo que se le asigne, sin embargo, en caso que el equipo
presente problemas, el usuario podrá solicitar otra máquina, y el servicio estará sujeto a la disponibilidad en esa
oportunidad.
Las reservaciones grupales sólo podrán realizarse en forma personal, por el Profesor Titular o Instructor del grupo
con un mínimo de n horas previas (especificar cuánto tiempo).
Todos los alumnos que se presenten a clases en las salas dispuestas para ello no podrán ingresar, hasta que el
maestro o instructor llegue.
El tiempo máximo por reservación grupal será de n horas a la semana (especificar cuánto tiempo) y serán
respetadas hasta m minutos (especificar cuántos) después de la hora fijada.
La reservación Grupal
Las reservaciones implican la asignación física de cierto número de computadoras, pero aquellas que no sean
ocupadas, quedarán a disposición para ser asignadas a otros usuarios.
Los usuarios deberán respetar las especificaciones que los equipos tengan con respecto al Software instalado
en general, de lo contrario se hará acreedor a una sanción (según la estipule la coordinación de servicios).
Los equipos dispuestos en las áreas de servicio están configurados y provistos de la paquetería institucional para el
desempeño de trabajos de cómputo. Sin embargo, en caso de que existiera algún requerimiento de software
especial, el usuario deberá solicitarlo a la coordinación de servicios, previa justificación que la sustente.
Instalación de Software
Queda estrictamente prohibido inspeccionar, copiar y almacenar programas de cómputo, software y demás fuentes
que violen la ley de derechos de autor.
En caso de existir salas, o áreas de cómputo especiales en cuanto a su uso (para clases, laboratorios, etc.) o
restringidas en cuanto a los usuarios (solo para maestros, tesistas, residentes, etc.), deberá reglamentarse en esta
sección cuántos usuarios caben, para qué fin serán utilizadas, por quiénes y en qué horario.
El usuario que requiera una cuenta personal en el servidor institucional deberá solicitarla a la Coordinación de
Servicios, previa identificación. La cuenta tendrá vigencia mientras el usuario pertenezca a la institución.
transferible a ningún otro usuario. La cuenta será utilizada únicamente para fines académicos. Queda
estrictamente prohibido el uso con fines comerciales, lucrativos, promoción, propaganda o venta y/o difusión de
servicios ajenos a la institución, propósitos ilegales, criminales o no éticos. Es responsabilidad del usuario el
respaldo y el contenido de la información de su cuenta de acceso. Se prohíbe dejar sesiones abiertas sin control
alguno. Cualquier mal uso realizado desde una cuenta personal será responsabilidad del usuario que la solicitó y
provocará la suspensión de dicha cuenta.
Capacitación.
A los usuarios nuevos se les proporcionará una capacitación de este reglamento y del uso del centro de
Alimentos y Bebidas
Fumar
Armas y Estupefacientes
Este servicio deberá ser solicitado a la Coordinación de Servicios y tendrá como máximo un acceso de n
horas al día e invariablemente se justificará cuando se trate de búsquedas que correspondan a trabajos o algún
proyecto debidamente sustentado. Por lo anterior, la Coordinación se reserva el derecho de otorgar este servicio
cuando se haya detectado el empleo del mismo para realizar búsquedas o accesos a páginas web que atenten
contra la moral y buenos principios.
Uso de equipo.
Queda prohibido:
Utilización de Cualquier tipo de juego y programas y aplicaciones que no están autorizados por la Coordinación de
servicios.
Usar la infraestructura de la Institución para lanzar virus, gusanos, caballos de Troya y otros ataques,
Usar vulnerabilidades que alteren la seguridad, consistencia o que dañen Cualquier sistema de cómputo
Solo podrán tener acceso las personas que tengan reservación y porten su identificación correspondiente.
independientemente que se trate de una situación particular u otra derivada de alguna práctica o investigación
académica, esta deberá estar avalada por su departamento académico.
El usuario que cause algún daño a Cualquier equipo deberá cubrir el costo de la avería, y en tanto esto
La información de los usuarios permanecerá de manera transitoria en el disco duro del servidor y/o de las
estaciones de trabajo, ya que por requerimientos de espacio será borrada. Es responsabilidad del usuario el
respaldo y contenido de la información guardada por él.
Antivirus
Todas las máquinas del Centro de Cómputo deberán contar con un programa antivirus, y los usuarios
Equipo Multimedia
Responsabilidad
El equipo multimedia como proyectores de acetatos, cañones de vídeo, etc. deberá ser solicitado por el
No forzar las conexiones de los dispositivos de los equipos (éstos solo pueden conectarse de una
forma)
Ubicar los equipos de tal forma que el calor generado por éstos no incida sobre equipos de cómputo.
Poner los equipos en modo de reposo (stand-by) durante al menos 5 minutos antes de apagarlos de
manera definitiva.
Al terminar, enrollar los cables y acomodarlos para un transporte seguro. Sin embargo, los cables no
deben enrollarse con radios de curvatura muy pequeños, ya que pueden fracturarse.
No colocar los proyectores o cañones sobre notebooks ya que la pantalla líquida puede dañarse.
De las impresiones
Impresión de trabajos.
El servicio de impresión se ofrece en el horario estipulado por la coordinación de servicios (mencionar cual).
Cuándo y dónde aplique, el usuario deberá pagar por el servicio. El trabajo deberá encontrarse en su versión final,
para evitar retrasos con respecto a otros trabajos. No se permitirá la edición de los mismos durante la impresión. El
trabajo impreso, Cual fuere su resultado, deberá ser pagado por el alumno (en caso que aplique el pago).
El usuario entregará su disco a las personas encargadas de impresiones e indicará en qué aplicación están hechos
los trabajos (de ser diferente, explicar el procedimiento vigente).
No se imprimirán trabajos con fines de lucro ni aquellos que no tengan relación con la Institución.
De las instalaciones
Limpieza
Es obligación de los usuarios mantener limpias todas las instalaciones, tirando la basura en los botes
Escaleras y pasillos.
Está prohibido sentarse en las escaleras y pasillos, ya que se obstaculiza el libre tránsito de personas.
Sanitarios
Transitorios
Primero.
Imprevistos
Los casos no previstos en este reglamento serán resueltos por la Coordinación de Servicios, entidad
Segundo
Vigencia
5.4 Estándares sobre los procedimientos de entrada de datos, procesamiento de información y misión de
resultados.
Procesamiento de datos
El objetivo es graficar el Procesamiento de Datos, elaborando un Diagrama que permita identificar las Entradas,
Archivos, Programas y Salidas de cada uno de los Procesos.
* Este Diagrama no se podrá elaborar por completo desde un primer momento ya que depende del Flujo de
Información.
* En este primer paso sólo se identifican las Salidas y Programas. Los elementos restantes se identifican en forma
genérica.
Validación de datos:
Consiste en asegurar la veracidad e integridad de los datos que ingresan a un archivo. Existen numerosas técnicas
de validación tales como:
Procesamiento Centralizado:
En la década de los años 50’s las computadoras eran máquinas del tamaño de todo un cuarto con las siguientes
características:
* Un CPU
Con el paso del tiempo, las computadoras fueron reduciendo su tamaño y creciendo en sofisticación, Aunque la
industria continuaba siendo dominada por las computadoras grandes “mainframes”. A medida que la computación
evolucionaba, las computadoras, fueron capaces de manejar aplicaciones múltiples simultáneamente,
convirtiéndose en procesadores centrales “hosts” a los que se les conectaban muchos periféricos y terminales
tontas que consistían solamente de dispositivos de entrada/salida (monitor y teclado) y quizá poco espacio de
almacenamiento, pero que no podían procesar por sí mismas. Las terminales locales se conectaban con el
procesador central a través de interfaces seriales ordinarias de baja velocidad, mientras que las terminales remotas
se enlazaban con el “host” usando módems y líneas telefónicas conmutadas. En este ambiente, se ofrecían
velocidades de transmisión de 1200, 2400, o 9600 bps.
Un ambiente como el descrito es lo que se conoce como procesamiento centralizado en su forma más pura
“host/terminal”. Aplicaciones características de este tipo de ambiente son:
Al continuar la evolución de los “mainframes”, estos se comenzaron a conectar a enlaces de alta velocidad donde
algunas tareas relacionadas con las comunicaciones se delegaban a otros dispositivos llamados procesadores
comunicaciones “Front End Procesos” (I7EP’s) y controladores de grupo “Cluster Controllers” (CC’s).
Procesamiento Distribuido:
El procesamiento centralizado tenía varios inconvenientes, entre los que podemos mencionar que un número
limitado de personas controlaba el acceso a la información y a los reportes, se requería un grupo muy caro de
desarrolladores de sistemas para crear las aplicaciones, y los costos de mantenimiento y soporte eran
extremadamente altos. La evolución natural de la computación fue en el sentido del procesamiento distribuido, así
las minicomputadoras (a pesar de su nombre siguen siendo máquinas potentes) empezaron a tomar parte del
procesamiento que tenían los “mainframes”.
Ventajas
La primera, puede dar como resultado un mejor rendimiento que el que se obtiene por un procesamiento
centralizado. Los datos pueden colocarse cerca del punto de su utilización, de forma que el tiempo de comunicación
sea más corto. Varias computadoras operando en forma simultánea pueden entregar más volumen de
procesamiento que una sola computadora.
La Segunda, los datos duplicados aumentan su confiabilidad. Cuando falla una computadora, se pueden obtener los
datos extraídos de otras computadoras. Los usuarios no dependen de la disponibilidad de una sola fuente para sus
datos.
Una tercera ventaja, es que los sistemas distribuidos pueden variar su tamaño de un modo más sencillo. Se pueden
agregar computadoras adicionales a la red conforme aumentan el número de usuarios y su carga de procesamiento.
A menudo es más fácil y más barato agregar una nueva computadora más pequeña que actualizar una computadora
única y centralizada.
Por último, los sistemas distribuidos se pueden adecuar de una manera más sencilla a las estructuras de la
organización de los usuarios.
Introducción a la Teleinformática.
Definición de Teleinformática.
Entendemos como teleinformática como el conjunto de elementos y técnicas que permiten la transmisión
automática de datos.
Al hablar de transmisión se asume que existe una distancia apreciable entre origen y destino de la comunicación.
Este es, asimismo. El sentido del prefijo tele-. Además, es automática puesto que no se requiere intervención
humana para llevar a cabo la comunicación. En cuanto a los datos, entendemos como tales a las entidades
susceptibles de ser tratadas por un computador.
En un principio, los computadores eran caros y escasos. Los organismos que disponían de un computador lo
dedicaban a la ejecución de programas locales. Un usuario utilizaba los dispositivos de entrada (tarjetas perforadas,
teclado, unidades de disco, etc.) para cargar el programa y los datos en el computador y, tras la ejecución, recogía
los resultados mediante los dispositivos de salida (tarjetas perforadas, impresora, terminal, etc.). No obstante,
pronto se hizo necesaria la compartición de datos y recursos entre computadores, así como el acceso a datos
remotos. A partir de esta necesidad fueron surgiendo mecanismos cada vez más evolucionados, comenzando por
las primeras conexiones punto a punto entre computadores mediante líneas dedicadas. Los grandes fabricantes
comienzan a investigar en este aspecto, dando como resultado la aparición de las redes locales, que permiten la
interconexión de varios computadores entre sí.
Este modelo de funcionamiento consiste en que redes diferentes utilicen a alto nivel protocolos comunes, que
permitan ignorar en el ámbito de usuario las diferentes implementaciones a bajo nivel.
Para ello resulta imprescindible establecer de forma estándar los protocolos de comunicaciones utilizados para la
interconexión de redes. Varios organismos han propuesto estos estándares, tal y como veremos más adelante.
Gracias a ellos se da el siguiente paso, llegando a la interconexión de redes, o Internet.
Nomenclaturas
La teleinformática, como otros campos dentro de la informática, no se ha desarrollado como una disciplina teórica,
sino que ha ido evolucionando gracias, en gran medida, a implementaciones realizadas por laboratorios de
investigación, universidades y la empresa privada. Además, la aproximación al problema ha sido enfocada de forma
distinta por distintos organismos, por lo que los conceptos utilizados son distintos. Por todo ello, no existe una
terminología única que permita denominar de forma inequívoca a los componentes de estos sistemas. En el campo
de las nomenclaturas vamos a trabajar con dos de las más empleadas:
Nomenclatura ARPA
A comienzos de los 60 en Estados Unidos se puso en marcha el proyecto ARPANET, patrocinado por ARPA
(Advanced Research Proyect Agency), dependiente del Departamento de Defensa. Este proyecto militar perseguía la
creación de una red de interconexión entre centros militares y universidades. Con el tiempo, esta red se convirtió
en Internet.
Hosts
Con este término se denomina en la nomenclatura de ARPA a los computadores terminales de usuario, es decir,
aquellos que ejecutan programas de propósito general y que en realidad son los usuarios de la red de
comunicaciones.
Es necesario destacar que para ARPA son igualmente partes del Host los posibles elementos de comunicaciones
integrados en el sistema, como pueden ser tarjetas de red o dispositivos MÓDEM, e incluso los denominados
procesadores frontales de comunicaciones ( front-end processors) cuya única misión consiste en descargar de las
tareas de comunicaciones al resto del sistema. Esta distinción no se mantendrá en posteriores nomenclaturas.
Procesadores de comunicaciones:
Los procesadores de comunicaciones, también conocidos como nodos, computadores de comunicaciones e I.M.P’s (
Interface Message Processors), son los encargados de que la información transmitida por los Host llegue a su
destino. Para ello realizan tareas de encaminamiento de la información a través de la sub-red. Cada IMP se
encuentra permanentemente preparado para la recepción por Cualquiera de sus líneas. Cuando llega una unidad de
información por alguna de sus entradas, evalúa en función de la dirección destino de la misma y el conocimiento del
IMP sobre la red cual debe ser la línea de salida. A cada uno de estos procesos de recepción, evaluación y
transmisión se le denomina salto ó hop. Eventualmente, y tras un número finito de hops, la información será
entregada por el IMP correspondiente al host destino.
Líneas de comunicaciones
Las líneas de comunicaciones interconectan entre sí a los procesadores de comunicaciones y a éstos con los Hosts.
Pueden ser de dos tipos: líneas punto a punto o multipunto.
Las líneas punto a punto unen entre sí dos extremos fijos. Habitualmente existirá un emisor y un receptor. Son, por
tanto, eminentemente unidireccionales, aunque con una gestión adecuada es posible utilizarlas en ambos sentidos
no simultáneamente.
Cuando en una línea de comunicaciones existe un emisor y un receptor fijos, es decir, la información viaja en un
sólo sentido, se dice que la línea es simple (simplex). Por contra, cuando el papel de emisor puede ser adoptado por
ambos equipos, pero no simultáneamente se dice que la línea es semiduplex (half-duplex). Para permitir la
comunicación bidireccional simultánea entre dos equipos serían necesarias dos comunicaciones simples. Este tipo
de líneas se denomina duplex (full-duplex).
Uno de los aspectos más importantes de las redes con líneas punto a punto es la topología, es decir, cómo se
interconectan entre sí todos los nodos. De la topología dependerán en gran medida las prestaciones de la red, su
coste, su facilidad de ampliación, sus posibilidades de congestión, etc. Veremos a continuación las topologías más
comunes.
Topología en estrella: En ella todos los nodos se comunican a través de un nodo central. Resulta muy sencilla de
ampliar, siempre que el nodo central permita la incorporación de nuevas líneas. Es barata puesto que exige una
única línea por nodo. Además, la máxima distancia es de dos hops. Sin embargo, presenta problemas de congestión
en el nodo central, además de una tolerancia a errores mínima, ya que en caso de caída del nodo central la red cae
completamente. Sin embargo, la caída de Cualquier otro nodo no afecta al funcionamiento del resto de la red.
Topología en anillo: Como ventajas de esta topología pueden citar su facilidad de ampliación y que requiere pocas
líneas por nodo ( sólo dos). Sin embargo, la comunicación entre dos nodos puede costar un número elevado de
hops. Presenta una relativa tolerancia a errores, ya que en caso de caída de una línea o nodo la red sigue
funcionando puesto que existe otra ruta alternativa.
Topología en interconexión total: Es sin duda la más rápida, ya que siempre se alcanza el destino en un único hop.
Sin embargo, resulta extremadamente cara y difícil de ampliar por el elevado número de enlaces, lo que la hace
técnicamente inviable a partir de un número elevado de nodos. Su tolerancia a fallos es muy buena, ya que siempre
existen numerosos caminos alternativos entre dos nodos.
Topología jerárquica: Es una buena alternativa a la topología en estrella para reducir la congestión. Presenta una
velocidad bastante aceptable si se consigue que los nodos que más se comunican se encuentren en la misma rama,
cuanto más próximos mejor. Es muy fácil de ampliar, pues solo requiere una línea conectada al nodo padre
correspondiente. Sin embargo, su tolerancia a fallos es discutible ya que en caso de rotura quedan en
funcionamiento dos sub-redes independientes. Aún así, puede presentar problemas de congestión en los nodos
más elevados del árbol.
Topología en línea: Barata y fácil de implementar, además de ser ampliable con poco coste, el mayor inconveniente
de esta topología es su baja velocidad ( el número de hops puede ser muy grande). En cuanto a su tolerancia a
fallos, nos encontramos con el mismo caso de las topologías jerárquicas, puesto que aparecen dos sub-redes
independientes.
Topologías irregulares: A pesar ser las más difíciles de gestionar y analizar, son las más frecuentes. Sus
características en cuanto a velocidad y fiabilidad suelen depender del número de enlaces, mientras que su
ampliación resulta sencilla.
Las líneas multipunto comunican varios nodos, siendo posible que Cualquiera de ellos utilice la línea tanto como
emisor como receptor. Esto permite reducir el número de líneas de comunicaciones, y permitir que todos los nodos
se encuentren a una distancia de un único hop. Sin embargo, resulta imposible que una única línea sea utilizada
simultáneamente por más de un nodo, por lo que es necesario establecer algunas reglas. El mecanismo de acceso al
medio, es decir, qué acciones debe seguir un nodo para utilizar una línea multipunto, será el factor determinante de
la velocidad de la red. La fiabilidad del sistema, por contra, será muy elevada con respecto a fallos en los nodos pero
nula en cuanto a fallos en la línea común. Resultan muy sencillas de ampliar y mucho más baratas que las topologías
con líneas punto a punto.
Evolución de ARPA.
La red ARPA ha evolucionado para dar lugar a lo que actualmente se conoce como INTERNET. Las líneas de
comunicaciones se han convertido en redes locales, que no son más que líneas multipunto en la mayoría de las
ocasiones. Por lo tanto, el papel del nodo ha pasado desde el encaminamiento de información a la interconexión de
redes locales, con todo lo que ello conlleva.
Estos elementos entre redes pueden ser de diferentes tipos, desde los repetidores que únicamente amplifican la
señal eléctrica hasta las complejas pasarelas que realizan un filtrado selectivo de la información que retransmiten.
Veremos con más detalle estos aspectos en posteriores temas.
En la figura podemos ver como las líneas han pasado a ser redes locales completas (LAN), mientras que los nodos
únicamente interconectan estas redes ®.
Nomenclatura ITU
ITU (International Telecommunications Union) es un organismo internacional que agrupa a las compañías de
telecomunicaciones, tales como Telefónica, British Telecomm, ATT, etc. Esta organización procede de la antigua
CCITT (Comité Consultivo Internacional de Teléfonos y Telégrafos), con las mismas funciones y múltiples estándares,
tal y como comentaremos más adelante.
Sus trabajos, respaldados por la ONU, establecieron una nomenclatura según la Cual se distinguen los siguientes
elementos:
Sub-red: Se trata de un elemento gestionado por los denominados proveedores del servicio, es decir, las compañías
telefónicas. Por ello, no se describen los elementos que forman parte de ella.
Equipos terminales de Datos (ETD´s): Son los elementos que desean comunicarse, típicamente computadores que
ejecutan procesos de usuario, aunque existen otras opciones (terminales tonitos, equipos de videotexto, etc.).
También se denominan DTE ( Data Terminal Equipement) Equipos terminales del circuito de Datos ( ETCD) ó DCE
(Data Circuit Terminal Equipement). Son los elementos que permiten la interconexión entre el DTE y la sub-red. Un
ejemplo de esto son los MÓDEM telefónicos.
Como puede verse en la figura siguiente, esta nomenclatura divide en lo que anteriormente denominamos host en
dos elementos: el equipo terminal de datos que realiza las funciones de usuario y un equipo para conectar el DTE a
la sub-red. Por ello, detalla mejor las diferencias entre el proceso de usuario (DTE) y los mecanismos que permiten a
este usuario el acceso a los servicios proporcionados por la sub-red.
Arquitecturas de comunicaciones
Una de las aproximaciones al problema consiste en considerar la tarea como un todo, es decir, estudiar
simultáneamente el conjunto de aspectos a solventar e implementar un único código que realice todas las
funciones necesarias. Esta aproximación es la denominada arquitectura monolítica.
Mediante esta metodología, por ejemplo, para implementar una aplicación de correo electrónico a través de una
red local sería necesario desarrollar código relacionado con el control de la tarjeta de red, el control de errores, el
direccionamiento de la información para que llegue a la máquina destino, los protocolos propios de la red local. El
protocolo de correo electrónico, el interfaz de usuario… todo ello en un único programa, con lo que el volumen de
código sería enorme.
Implementar sistemas teleinformáticos con esta metodología suele conducir a aplicaciones extremadamente
difíciles de mantener y modificar. Además, resulta muy complicada la reutilización del código de una aplicación para
escribir otra, puesto que es necesario rehacer la aplicación si cambia Cualquiera de los elementos anteriormente
citados. Asimismo, resulta casi imposible establecer estándares de comunicaciones entre aplicaciones monolíticas
de distintos fabricantes. Como ventaja, resultan altamente eficientes puesto que pueden optimizarse mucho más
que otras arquitecturas.
Como alternativa a esta metodología, se propuso y ha sido aceptada por la mayoría de las compañías la arquitectura
estructurada. Mediante esta, se divide el problema de la transmisión de datos en una serie de niveles
independientes de tal modo que es posible resolverlos por separado. Al ser independientes, una vez establecido un
mecanismo estándar de intercomunicación entre niveles es posible modificar una parte del sistema teleinformático
( que normalmente afectará únicamente a un nivel) sin tener que rescribir toda la aplicación.
Existen multitud de arquitecturas estructuradas, siendo algunas de ellas estándares internacionales y otras
propuestas por diferentes organismos o incluso fabricantes. A continuación estudiaremos algunas de ellas.
EL modelo OSI (Open System Intercommunication) propuesto por ISO (International Standarization Organization)
divide los sistemas teleinformáticos en siete niveles, que describiremos más adelante.
La interacción entre niveles se basa en interfaces estándar, estableciendo una jerarquía de servicios. Es decir, un
nivel realiza unas funciones concretas, resolviendo problemas determinados de la comunicación. El nivel superior
intentará realizar funciones más complejas utilizando las proporcionadas por su nivel inferior, con lo que ofrecerá a
su vez un mejor servicio del que obtiene de sus inferiores. Por ejemplo: El nivel de transporte debe proporcionar a
sus niveles superiores una comunicación fiable entre los extremos de la sub-red (entre hosts). Para ello utiliza los
servicios del nivel de red, que proporcionan el servicio de enviar la información a través de dicha sub-red, pero no
puede garantizar que el resultado sea correcto. Será pues misión del nivel de Transporte (entre otras) supervisar al
nivel de red para, en caso de error en las funciones del mismo, tomar las medidas para corregirlo.
Dentro de cada nivel encontraremos una o varias unidades funcionales. La unidad funcional es el elemento que
implementa el nivel, siendo posible la existencia de varias instancias ( por ejemplo, cuando un computador está
conectado a varias redes). Las unidades funcionales del mismo nivel siempre son equivalentes, es decir, realizan
funciones similares. Para cumplir las funciones asignadas al nivel, la unidad funcional de nivel n requiere servicios de
su nivel inferior, el nivel n-1. Empleando estos servicios la unidad funcional ofrece unos servicios más complejos
(servicios de nivel n) al nivel n+1.
La comunicación entre diferentes niveles se realiza a través de un interfaz estándar. Dicho interfaz, que se
encuentra definido para cada uno de los niveles, permite la sustitución de una unidad funcional de nivel n por
Cualquier implementación de otra unidad funcional del mismo nivel.
Sin embargo, para cumplir su misión una unidad funcional debe comunicarse con otros computadores. Siempre lo
hará con unidades funcionales de su mismo nivel en la máquina destino, siendo imprescindible que ambas unidades
estén de acuerdo en múltiples aspectos ( formato de la información, control de errores, campos cabeceras, etc.)
que son los que forman un protocolo.
Cabe destacar que, a pesar de que parece que la comunicación se realiza directamente entre unidades funcionales,
solo es posible la transmisión de información a través del nivel más bajo ( el nivel físico), por lo que será necesario
utilizar servicios de niveles inferiores.
Nivel Físico: Es el nivel más bajo del modelo. Incluye los aspectos de interconexión física (líneas de transmisión), así
como la circuitería y programas necesarios para la transferencia de información. Puesto que es posible la aparición
de errores de comunicación, no resulta fiable. Puede trabajar con bits, caracteres o bytes.
Nivel de Enlace de Datos: Asegura una comunicación fiable entre dos máquinas directamente conectadas, lo Cual
incluye la supervisión de los errores de transmisión en la línea, el control de flujo entre emisor y receptor y el acceso
al medio físico. Utiliza como unidad de intercambio la trama de datos (frame).
Nivel de Red: Es el encargado de encaminar la información a través de la sub-red. Para ello debe realizar varias
funciones, además del propio encaminamiento, como es el control de la congestión y la adaptación a las
condiciones de carga de la sub-red. Trabaja con paquetes de datos ( packet ).
Nivel de Transporte: Es el encargado de garantizar la transferencia de información a través de la sub-red. Es, por
tanto, un nivel que únicamente aparece en los hosts. Esto implica las funciones de control y numeración de
unidades de información, la segmentación y reensamblaje de mensajes y la multiplexación. La unidad recibe el
nombre de TPDU (Transport Protocol Data Unit).
Nivel de Sesión: Asegura la reanudación de una conexión interrumpida por avería o des conexión de alguno de los
hosts a partir de un punto seguro, evitando así posibles problemas en sistemas transaccionales (p.e. transacciones
bancarias). Para ello debe implementar los mecanismos de recuperación necesarios, siendo frecuente la técnica de
Checkpointing. Los niveles de sesión intercambian los denominados SPDU (Session Protocol Data Unit).
Nivel de Presentación: Permite el intercambio de información entre computadores con distinta representación de
los datos. Debe convertir los datos desde los formatos locales hasta los estándares de red y viceversa. Asimismo, a
este nivel se le encomiendan las funciones de compresión y encriptación de la información. A este nivel se trabaja
con las denominadas PPDU (Presentation Protocol Data Unit).
Nivel de Aplicación: Proporciona soporte a las aplicaciones de usuario, interactuando con el mismo. Para ello
existen los denominados módulos comunes (a varias aplicaciones) y módulos de usuario. Las unidades dependen de
la aplicación, aunque genéricamente se denominan APDU (Application Protocol Data Unit). Ejemplos de normas
pueden ser X.400, SMTP, FTP, FTAM, TELNET, etc.
El modelo OSI no es más que un esqueleto de cómo se deberían implementar los sistemas teleinformáticos. De
hecho, ni siquiera propone estándares para cada uno de los niveles, sino que es posteriormente OSI o los propios
fabricantes quienes lo hacen. Al ser un modelo “a priori”, realizado de forma teórica sin implementación, resulta
excesivamente rígido en algunos aspectos. Además, en la mayoría de los sistemas teleinformáticos encontramos
que las funciones entre niveles están mal repartidas. Por ejemplo, la problemática asociada a los niveles de enlace
de datos y transporte requiere que estos se subdividan en otros subniveles, mientras que los niveles de sesión y
presentación se encuentran prácticamente vacíos de contenido.
Modelo TCP/IP.
El modelo TCP/IP es el resultado de la evolución del primitivo proyecto ARPA, que da nombre a una de las
nomenclaturas más utilizadas. Como ya hemos dicho, el propósito de este proyecto era la interconexión de
diferentes redes locales para la compartición de información entre distintos centros. Puesto que las redes locales no
tienen por qué disponer de la misma tecnología, este modelo no habla sobre los niveles inferiores del modelo (lo
que en el modelo OSI denominábamos niveles físico, de enlace de datos y red), sino que sobre ellos construye una
estructura pensada para dar soporte a las aplicaciones.
Para que sea posible la interconexión de computadores entre redes distintas es imprescindible establecer un
sistema de direccionamiento de computadores de forma que una información transmitida pueda ser entregada a
una máquina concreta. Ello se consigue en el ámbito de red mediante las denominadas direcciones IP, de las que
hablaremos en temas sucesivos.
Asimismo, y para garantizar la flexibilidad en las aplicaciones, se contempla la posibilidad de disponer de diferentes
tipos de transportes. Así, como ya veremos, es posible optar por un transporte totalmente fiable, aunque complejo,
o bien otro más sencillo que no garantiza la llegada de los datos.
Sub-red: Con este nombre denominamos a la tecnología propia de las diferentes implementaciones de red local que
forman parte del conjunto. Cubre las funciones correspondientes a los niveles físico, de enlace de datos y
posiblemente parte del de red
IP (Internet Protocol): Su misión consiste en el encaminamiento de la información a través de la red. Para ello se
establecen mecanismos de direccionamiento (direcciones IP) independientes de la tecnología, proporcionando
direcciones tanto de host como de red local. Sería similar al nivel de red en el modelo OSI. Utiliza protocolos
auxiliares tales como ICMP, ARP y RARP.
TCP / UDP : Son equivalentes al nivel de transporte del modelo OSI, pues realizan el transporte de datos entre hosts.
TCP (Transport Control Protocol) proporciona a las aplicaciones la posibilidad de establecer conexiones estables
entre dos máquinas en modo stream, es decir, sobre las Cuales no es necesario construir bloques de datos sino que
pueden emplearse para transmitir un flujo continuo de información. Es un protocolo orientado a conexión, por lo
que es necesario establecer la misma antes de poder transmitir, y una vez finalizada la operación se debe realizar
una desconexión.
UDP (Unreliable Datagram Protocol) ofrece un servicio no fiable de entrega de bloques de datos (data gramas).
Ambos protocolos tienen ventajas e inconvenientes. UDP es mucho más fácil de implementar que TCP, y resulta
más rápido. Sin embargo, el control de errores se deja en manos de la aplicación.
Nivel de aplicación: Contiene las aplicaciones de usuario, tales como FTP (File Transfer Protocol), TELNET (Terminal
virtual), SMTP (Simple Mail Transfer Protocol), News, WWW (World Wide Web), etc.
Estándares
En el mundo de la teleinformática resulta muy frecuente la interconexión de máquinas de distintos fabricantes. Para
ello es necesario que todos los computadores involucrados en la comunicación sean capaces de transmitir e
interpretar la información utilizando los mismos protocolos. Para conseguir esto aparecen los estándares de
comunicaciones.
Podemos definir un estándar como una normativa comúnmente aceptada por fabricantes y usuarios. Así, podremos
distinguir dos tipos de estándares:
Estándares que han sido promovidos por algún organismo, tanto nacional como internacional.
Estándares que proceden de fabricantes y que, sin ser obra de ningún organismo, se imponen por motivos técnicos
o de marketing.
Los primeros son los conocidos como estándares de jure, mientras que los segundos son los estándares de facto.
IEEE (Institute of Electrical and Electronics Engineers): A pesar de no ser un organismo internacional,
IAB (Internet Arquitecture Board): Este organismo supervisa las normas empleadas en Internet. Consta básicamente
de dos organismos: IRTF (Internet Research Task Force) e IETF (Internet Engineering Task Force), encargadas
respectivamente de la investigación y el desarrollo de estándares en Internet. El mecanismo para la creación de las
normas pasa por los RFC´s (Request For Comments), un documento público al Cual todo usuario de Internet puede
hacer críticas. Tras varias fases, este documento pasará al estado STD, siendo considerado desde entonces un
estándar establecido.
Los estándares de facto suelen ser propuestas por un fabricante y adoptadas por otros para sus productos.
Responden a la falta de normativa en bastantes de los aspectos de la informática en los primeros tiempos. Ejemplos
de estándares de este tipo son el lenguaje de comandos Hayes o el interfaz Centronics para impresoras. Estos
estándares suelen acabar convertidos en estándares de jure cuando algún organismo de los anteriormente citados
los adopta.
Una buena documentación es esencial para lograr un diseño correcto y un mantenimiento eficiente de los sistemas
digitales. Además de ser precisa y completa, la documentación debe ser algo instructiva, de modo que un ingeniero
de pruebas, técnico de mantenimiento, o inclusive el ingeniero de diseño original (seis meses después de diseñar el
circuito), pueda averiguar cómo funciona el sistema con solo leer la documentación.
Aunque el tipo de documentación depende de la complejidad del sistema y los entornos en los que se realizan el
diseño y la fabricación, un paquete de documentación debe contener (por regla general) al menos los siguientes
seis elementos:
1. Una especificación de circuito que se describe exactamente lo que se supone debe hacer el circuito o sistema,
incluyendo una descripción de todas las entradas y las salidas (“interfaces”) y las funciones
que se van a realizar. Advierta que las “especificaciones” no tienen que especificar cómo consigue el sistema sus
resultados, sino únicamente que resultados genera.
2. Un diagrama de bloques es una descripción pictórica e informal de los principales módulos funcionales del
sistema y sus interconexiones básicas.
3. Un diagrama esquemático es una especificación formal de los componentes eléctricos del sistema, sus
interconexiones y todos los detalles necesarios para construir el sistema, incluyendo los tipos de CI, indicadores de
referencia y números terminales. Se suelen utilizar el término diagrama lógico para referirse a un dibujo informal
que no tiene este nivel de detalle. La mayoría de los programas para edición de esquemáticos tiene la capacidad de
generar en cuenta de materiales a partir del diagrama esquemático.
4. Un diagrama de temporización muestra los valores de diversas señales lógicas en función del tiempo, incluyendo
los retardos, entre causa y efecto, de las señales críticas.
5. Una descripción de dispositivo de lógica estructurada que indica la función interna de un PLD, FPGA o ASIC.
Normalmente esta descripción se describe en un lenguaje de descripción hardware (HDL) tal como VHDL O ABEL,
pero puede estar en forma de ecuaciones lógicas, tablas de estado o diagramas de estado. En algunos casos se
pueden utilizar un lenguaje de programación convencional, como C, para modelar el funcionamiento de un circuito
o para especificar su comportamiento.
6. Una descripción del circuito en un documento de texto narrativo que, junto con el resto de la documentación,
explica cómo funciona internamente el circuito. En el caso de que la máquina de estado debe describirse mediante
tablas de estado, diagramas de estado, lista de transiciones o archivo de texto en un lenguaje de descripción de
maquinas de estado como ABEL o VHDL. La descripción del circuito debe incluir Cualquier suposición y Cualquier
fallo potencial en el diseño y operación del circuito, también debe señalar el uso de Cualquier “truco” de diseño que
no sea obvio. Una buena descripción de circuito también contiene definiciones de acrónimos y otros términos
especializados y tiene referencias o documentos relacionados.
La última área de la documentación, la descripción del circuito, es muy importante en la práctica. De la misma
forma que un programador experimentado crea un documento de diseño de programa antes de comenzar a escribir
el código, un diseñador lógico con experiencia comienza escribiendo la descripción del circuito antes de realizar el
diagrama esquemático. Un circuito sin una buena descripción es difícil de depurar, fabricar, probar, mantener,
modifica y mejorar
Open Document
El Formato de Documento Abierto para Aplicaciones Ofimáticas de OASIS (en inglés, OASIS Open Document Format
for Office Applications), también referido como Open Document u ODF, es un formato de fichero estándar para el
almacenamiento de documentos ofimáticos tales como hojas de cálculo, memorandos, gráficas y presentaciones.
Su desarrollo ha sido encomendado a la organización OASIS (acrónimo de Organization for the Advancement of
Structured Information Standards) y está basado en un esquema XML inicialmente creado por Open Office.org.
Open Document fue aprobado como un estándar OASIS el 1 de mayo de 2005. Asimismo fue publicado el 30 de
noviembre de 2006 como estándar ISO 26300, alcanzando la fase 60.60 del proceso de estandarización. Por otra
parte la versión 1.1de la especificación fue aprobada el 25 de octubre de 2006 por el comité de estandarización de
OASIS.
El estándar fue desarrollado públicamente por un grupo de organizaciones, es de acceso libre, y puede ser
implementado por Cualquiera sin restricción. El formato Open Document pretende ofrecer una alternativa abierta a
los formatos de documentos propiedad de Microsoft cuyos requisitos de licencia impiden su empleo a diversos
competidores. La motivación principal para usar formatos estándar reside en que las organizaciones e individuos
que lo hacen evitan la dependencia de un único proveedor de software, permitiéndoles cambiar de entorno
informático si su proveedor actual es expulsado del mercado o cambia su modelo de licencia en términos menos
favorables para el cliente.
Open Document es el primer estándar para documentos ofimáticos implementado por distintos competidores,
visado por organismos de estandarización independientes y susceptible de ser implementado por Cualquier
proveedor.
Estandarización y licencia
La versión 1.0 de la especificación de Open Document fue aprobada como estándar OASIS en mayo de 2005 y está
disponible para descarga y uso libres. La especificación se puede licenciar en términos recíprocos por Cualquier
parte siempre que no estén sometidos a cuotas. Los términos de la licencia son equivalentes a los promovidos por
otras organizaciones de normalización, tales como el W3C, y pretenden evitar el conflicto entre las cuestiones
relativas a la propiedad intelectual y la promoción de la innovación tecnológica.
* KDE (K Office)
* Speed Legal (Smart Precedent? enterprise document assembly system); producto y compañía después
cambiaron de nombre a Exari.
* New York State Office of the Attorney General (documentos grandes y complejos que requieren acceso mucho
tiempo después de su composición)
* Society of Biblical Literature (grandes documentos políglotas, con capacidad de acceso después de largo tiempo)
Además de la participación de muchos miembros formales, las versiones provisionales de la especificación fueron
reveladas al público y sujetos a revisión mundial. Muchos participantes, que no eran miembros formales del comité
de estandarización, enviaron comentarios al comité. Estos comentarios externos entonces fueron evaluados en
público por el comité.
En todo este proceso Microsoft estuvo notablemente ausente, especialmente porque Microsoft es un miembro de
OASIS y es el vendedor dominante de software de oficina. Por el contrario, contra diversas convocatorias de
instituciones públicas y privadas, Microsoft decidió desarrollar por separado su propio formato incompatible, sin
consulta o revisión externa. Debido a esta carencia de revisión independiente y pública extensa del formato de
Microsoft, muchos creen que será más difícil que otros implementen el formato de Microsoft, o piensan que el
formato de Microsoft carece de capacidades importantes especificadas en Open Document. Microsoft también
impone condiciones adicionales de licencia para usuarios de su formato; muchos creen que estas condiciones
adicionales inhiben la competencia, y forman parte del intento de Microsoft de proteger su virtual monopolio en
aplicaciones para oficina; otros esperan que los hechos obligarán a Microsoft a desistir del intento de imponer su
propio formato, del mismo modo que se vio obligado en la década de 1990 a abandonar sus estándares de Internet
para adoptar estándares abiertos.
Finalmente, en mayo de 2008, Microsoft anunció que, en algún momento del primer semestre de 2009, lanzará el
Service Pack 2 (SP2) para Microsoft Office 2007, el Cual incluirá, entre otros cambios, compatibilidad directa,
relativamente integrada y completa, con los estándares ODF y PDF, permitiendo incluso configurar ODF como
formato por defecto en las principales aplicaciones de su paquete ofimático.
Tipos de ficheros
Las extensiones al nombre de fichero identificativas de los ficheros Open Document incluye: odt para documentos
de texto, ods para hojas de cálculo, odp para presentaciones, odg para gráficos y odb para bases de datos.
Documentos
Formatos internos
Un fichero Open Document es un archivo comprimido en ZIP y que contiene varios ficheros y directorios:
content.xml
meta.xml
settings.xml
styles.xml mimetype
layout-cache
META-INF/
Thumbnails/
Pictures/
Configurations2/
El formato Open Document ofrece una clara separación entre el contenido, la disposición de éste en el documento y
los metadatos. Los componentes más notables del formato son los siguientes:
* content.xml: Este es el fichero más importante. Almacena el contenido real del documento (excepto los datos
binarios como las imágenes). El formato de base utilizado fue inspirado por el HTML, aunque es bastante más
complejo que éste, y debería ser razonablemente legible para un humano:
Título
La marca vacía text:p que se ve más arriba es un párrafo en blanco (una línea vacía).
* styles.xml: Open Document hace un uso intensivo de los estilos para el formateo y disposición del contenido. La
mayor parte de la información de estilo se almacena en este fichero (aunque hay parte que aparece en el fichero
content.xml). Hay diferentes tipos de estilo, que incluyen los siguientes:
* Estilos de párrafo.
* Estilos de página.
* Estilos de carácter.
* Estilos de marco.
* Estilos de lista.
El formato Open Document es único en el hecho de que no se puede evitar el uso de estilos para formatear los
documentos. Incluso el formateo “manual” se realiza mediante estilos (que la aplicación ofimática debe crear
dinámicamente según sean necesarios).
* meta.xml: Contiene los metadatos del documento. Por ejemplo, el autor, la identificación de la última persona
que lo modificó, la fecha de última modificación, etc. El contenido tiene un aspecto similar a éste:
2003–09–10T15:31:11
Daniel Carrera
2005–06–29T22:02:06
es-ES
* settings.xml: Este fichero incluye propiedades como el factor de zoom o la posición del cursor que afectan a la
apertura inicial del documento, pero no son contenido ni afectan a la disposición de éste en el documento.
* Pictures/: Esta carpeta contiene todas las imágenes del documento. El fichero content.xml contiene referencias
a ellas mediante el uso de la etiqueta , similar a la etiqueta de HTML. A continuación se da un ejemplo de una de
estas referencias:
La información de posicionamiento (anchura, posición, etc) se da mediante una etiqueta que contiene a su vez la
etiqueta .
La mayoría de los imágenes se guardan en su formato original (GIF, JPEG, PNG), aunque los mapas de bits se
convierten a PNG por cuestiones de tamaño.
* mimetype: Se trata de un fichero con una única línea que contiene el tipo MIME del documento. Una
implicación de esto último es que, en realidad, la extensión del nombre del fichero es indiferente del formato real,
toda vez que la que prevalece es la definida por este fichero. Así, la extensión del fichero se utiliza sólo para facilitar
la identificación del tipo de fichero por parte del usuario.
Open Document fue diseñado para que reutilizase los estándares XML abiertos existentes cuando éstos estuvieran
disponibles y creó etiquetas nuevas sólo cuando no existía un estándar que ofreciera la funcionalidad necesaria. Así,
Open Document utiliza el núcleo de Dublín de XML para los metadatos, Math ML para las fórmulas matemáticas,
SVG para los gráficos vectoriales, SMIL para la multimedia, etc. Aplicaciones que soportan el formato Open
Document
* Open Office.org 1.1.5 (lectura) y 2.0 (lectura y escritura; es su formato por defecto)
* ooo-word-filter un plugin para Word 2003 en sourceforge. Al estar desarrollado en Visual Basic for Applications
no será difícil portarlo a otras versiones de Office.
* Visioo-Writer permite que usuarios sin una suite ofimática adecuada puedan ver los documentos en este
formato
Puedes leer un estudio más detallado de las aplicaciones que soportan el formato ODF.
Puesto que uno de los objetivos de los formatos abiertos, tales como Open Document, es garantizar el acceso a
largo plazo a los datos producidos eliminando para ello las barreras técnicas o legales, muchas administraciones
públicas y gobiernos han empezado a considerarlo un asunto de política de interés público.
Europa
Los gobiernos europeos, desde al menos 2003, han investigado diversas opciones para almacenar documentos en
un formato basado en XML, con encargos de estudios como el “Valoris Report” (Valoris). En marzo de 2004, los
gobiernos europeos pidieron a sendos equipos de Open Office y Microsoft que presentasen los méritos relativos de
sus respectivos formatos ofimáticos sobre XML (Bray, 29 de septiembre de 2004). En mayo de 2004, el Telematics
between Administrations Committee (TAC) publicó un conjunto de recomendaciones haciendo notar que:
Debido a su papel específico en la sociedad, el sector público debe evitar [una situación en la que] se fuerce el
empleo de un producto específico en la interacción electrónica con él. Por el contrario, debe incentivarse Cualquier
formato de documento que no discrimine entre actores del mercado y que pueda ser implementado por múltiples
plataformas. Igualmente el sector público debe evitar Cualquier formato que no asegure idénticas oportunidades en
la implementación de aplicaciones de proceso de tales formatos a todos los actores del mercado, especialmente si
esto puede imponer la selección de productos por parte de ciudadanos o empresas. Desde este punto de vista, las
iniciativas de estandarización no sólo aseguran un mercado limpio y competitivo, sino que aseguran la
interoperabilidad de las soluciones, preservando la competencia y la innovación.
* Los actores de la industria no involucrados aún en el Open Document Format de OASIS deben considerar
participar en el proceso de estandarización a fin de alentar un amplio consenso de la industria en torno al formato.
* Microsoft debe considerar la conveniencia de remitir los formatos XML a un organismo internacional de
estandarización de su elección.
* Se recomienda al sector público a proporcionar su información a través de varios formatos. Cuando por
circunstancias o por elección se proporcione sólo un formato editable, éste debería ser uno en torno al que exista
un consenso en la industria, como se demuestra por la adopción del formato como estándar. (TAC, 25 de mayo de
2004).
Open Document es ya un estándar reconocido por un organismo independiente (OASIS), y ha sido remitido a la ISO,
sin que exista evidencia de que los formatos XML de Microsoft, o los antiguos DOC/PPT/XLS vayan a sufrir un
proceso análogo. Tal y como muchos esperaban ISO ha aceptado y aprobado Open Document por el procedimiento
rápido, y ahora sólo queda que la Unión Europea establezca este formato como estándar ofimático ya que ha sido
ratificado dicho estándar por ISO. (Así se confirma en parte lo que dijo Marson el 18 de Octubre de 2005)
En noviembre de 2007 Holanda estableció, por ley, una fecha límite para las administraciones públicas para la
adopción de estándares abiertos. Massachusetts
A principios de 2005, Eric Kriss, Secretario de Administraciones Públicas y Hacienda de Massachusetts, estableció
como uno de los principios de su administración el compromiso de utilizar formatos abiertos en la siguiente
declaración: “Es absolutamente imperativo para el sistema democrático de los EEUU que perdamos la práctica de
tener nuestros documentos públicos cautivos en un formato exclusivo, sea éste el que sea, arriesgándonos a que en
el futuro el documento sea quizás ilegible o esté sujeto a un sistema de licencias exclusivo que restrinja su acceso.”
Fuente El 21 de septiembre de 2005, Massachusetts se convirtió en el primer estado norteamericano en aprobar
formalmente los diferentes formatos Open Document para su uso en los registros públicos, a la vez que se
rechazaba el formato basado en XML propuesto por Microsoft, su principal proveedor actual, por no ser
considerado abierto. Si Microsoft decide no dar soporte a Open Document para 2007, fecha límite definida por el
Estado, se descalificará de consideración futura por el Estado de Massachusetts.
Otros países
De acuerdo a informaciones de OASIS, “El Ministerio de defensa de Singapur, los Ministerios de Hacienda, Economía
e Industria de Francia, el Ministerio de Salud de Brasil, la Ciudad de Munich en Alemania, el Concejo de la Ciudad de
Bristol, del Reino Unido, y la Ciudad de Viena en Austria están tomando decisiones que adoptan Open Document”.
BECTA (British Education Communication Technology Agency) es la agencia del Reino Unido encargada de definir las
políticas de tecnología de la información y comunicaciones (TIC), para todas las escuelas del reino, incluyendo
estándares para toda la infraestructura. En 2005 publicaron un documento completo al respecto. Éste establece el
uso de Open Document y otros pocos formatos para los documentos ofimáticos y, en particular, no permite el uso
de los formatos binarios (.doc/.xls/.ppt) o XML de Microsoft. La explicación de BECTA es la siguiente: “Cualquier
aplicación ofimática empleada por las instituciones debe ser capaz de guardar la información (de forma que pueda
ser recuperado por otras) empleando un formato comúnmente aceptado que asegure que la institución no queda
cautiva del empleo de un software específico. El objetivo principal es que las aplicaciones basadas en software
ofimático cumplan esta especificaciones (tanto si es software licenciado, como si es de fuente abierta, o libre) y que
de este modo muchos desarrolladores puedan hacer aportaciones al mercado de las TIC educacionales.” (Lynch,
2005).
Argentina. Gobierno de la Provincia de Misiones. Acorde a los nuevos paradigmas que se imponen para avanzar
hacia la Sociedad de la Información y el Conocimiento y en el marco su proyecto de Gobierno Electrónico, el
Gobierno de la Provincia de Misiones por intermedio de la Dirección General del Centro de Cómputos, organismo
rector de la política informática provincial, ha decidido adoptar el estándar Open Document para los documentos
ofimáticos que se utilicen en la Administración Pública, tal como los determina la Resolución publicada el 21/12/06
que establece que: “Cualquier documento electrónico creado y emitido por los Organismos que componen el
Gobierno de la Provincia de Misiones, que esté destinado a almacenar y distribuir información entre organismos y
funcionarios que integran el Estado Provincial deberá estar codificado en el formato abierto Open Document de
acuerdo a las especificaciones establecidas en las normas ISO/IEC 26300.
De la definición de mantenimiento del estándar IEEE 1219 cabe distinguir tres causas fundamentales que
desencadenan las actividades de mantenimiento.
Las causas u origen de las actividades de mantenimiento del software pertenecen a tres grupos principales:
Las causas por tanto son todas ellas resultado de tener que modificar el software para que cumpla con los requisitos
del usuario ya establecidos (caso 1), para que siga cumpliéndolos cuando cambia su entorno (caso 2), o cuando se
quiere mejorar la manera en que los cumple (caso 3). Por otro lado, la definición anterior implica que el
mantenimiento debido a los defectos es a posteriori, es decir, se desencadena cuando el defecto tiene como
resultado un fallo que se detecta.
En ocasiones, se realizan actividades de mantenimiento preventivo, que intentan detectar y corregir fallos latentes
(que se supone pueden existir, aunque aún no se han “manifestado”). Estas causas tienen su correlación directa con
las denominadas “categorías de mantenimiento”, que en el estándar ISO/IEC 147641 incluye las siguientes
categorías definidas por Lienta y Swanson 2(1978) son:
1. Mantenimiento correctivo: modificaciones reactivas a un producto software hechas después de la entrega para
corregir defectos descubiertos.
2. Mantenimiento adaptativo: modificación de un producto software realizada después de la entrega para permitir
que un producto software siga pudiéndose utilizar en un entorno diferente. 3. Mantenimiento perfectivo:
modificación de un producto software después de la entrega para mejorar el rendimiento o la mantenibilidad.
Una consecuencia importante de las definiciones anteriores es que no se considera mantenimiento a los cambios
introducidos para incluir nuevos requisitos funcionales. No obstante, no hay un consenso unánime en este sentido,
y de hecho, el concepto de evolución del software, que tratamos a continuación, amplía el espectro del
mantenimiento a cambios en un sentido amplio. De hecho, hay autores que consideran que el mantenimiento
perfectivo sí incluye cambios en la funcionalidad. De hecho, las categorías adaptativa y perfectiva son ambas
mejoras, en contraposición el mantenimiento correctivo. El estándar ISO/IEC 14764 clasifica las categorías
comentadas hasta ahora según la siguiente Tabla, que nos puede ayudar a ver sus diferencias.
Por último, un estándar de mantenimiento del IEEE (1998) define una categoría adicional, la de mantenimiento de
emergencia, cuando los cambios se deben hacer sin planificación previa, para mantener un sistema en operación.
Todas las anteriores definiciones son las que se encuentran habitualmente en los libros. No obstante, la clasificación
más exhaustiva se encuentra en el artículo de Chapin (2001). Una visión más general de los tipos de mantenimiento,
se puede observar en la figura siguiente, ya que se distinguen los diferentes tipos de mantenimiento según cambios
de software, cambios de código fuente o cambios de funcionalidad.