Software
Ir a la navegaciónIr a la búsqueda
Dentro de la categoría de software de aplicación están incluidos los procesadores de
texto como LibreOffice Writer.
Se conoce como software,1 logicial o soporte lógico al sistema formal de
un sistema informático, que comprende el conjunto de los componentes lógicos
necesarios que hacen posible la realización de tareas específicas, en
contraposición a los componentes físicos que son llamados hardware. La
interacción entre el software y el hardware hace operativo un ordenador (u otro
dispositivo), es decir, el software envía instrucciones que el hardware ejecuta,
haciendo posible su funcionamiento.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones
informáticas, tales como el procesador de texto, que permite al usuario realizar
todas las tareas concernientes a la edición de textos; el llamado software de
sistema, tal como el sistema operativo, que básicamente permite al resto de los
programas funcionar adecuadamente, facilitando también la interacción entre los
componentes físicos y el resto de las aplicaciones, y proporcionando
una interfaz con el usuario.2
El software, en su gran mayoría, está escrito en lenguajes de programación de alto
nivel, ya que son más fáciles y eficientes para que los programadores los usen,
porque son más cercanos al lenguaje natural respecto del lenguaje de máquina.3
Los lenguajes de alto nivel se traducen a lenguaje de máquina utilizando
un compilador o un intérprete, o bien una combinación de ambos.
El software también puede estar escrito en lenguaje ensamblador, que es de bajo
nivel y tiene una alta correspondencia con las instrucciones de lenguaje máquina;
se traduce al lenguaje de la máquina utilizando un ensamblador.
El anglicismo software es el más ampliamente difundido al referirse a este
concepto, especialmente en la jerga técnica; en tanto que el término sinónimo
«logicial», derivado del término francés logiciel, es utilizado mayormente en países
y zonas de influencia francesa.
Índice
1Etimología
2Definición de software
3Clasificación del software
4Proceso de creación del software
o 4.1Modelos de proceso o ciclo de vida
4.1.1Modelo cascada
4.1.2Modelos evolutivos
4.1.2.1Modelo iterativo incremental
4.1.2.2Modelo espiral
4.1.2.3Modelo espiral Win & Win
o 4.2Etapas en el desarrollo del software
4.2.1Captura, análisis y especificación de requisitos
4.2.1.1Procesos, modelado y formas de elicitación de requisitos
4.2.1.2Clasificación e identificación de requisitos
4.2.2Diseño del sistema
4.2.3Codificación del software
4.2.4Pruebas (unitarias y de integración)
4.2.5Instalación y paso a producción
4.2.6Mantenimiento
5Carácter evolutivo del software
6Referencias
7Bibliografía
o 7.1Libros
o 7.2Artículos y revistas
8Véase también
o 8.1Modelos de ciclo de vida
9Enlaces externos
Etimología[editar]
Software (AFI: [ˈ[Link]]) es una palabra proveniente del inglés, que en español no
posee una traducción adecuada al contexto, por lo cual se la utiliza asiduamente
sin traducir y así fue admitida por la Real Academia Española (RAE).4 Aunque
puede no ser estrictamente lo mismo, suele sustituirse por expresiones tales
como programas (informáticos), aplicaciones (informáticas) o soportes lógicos.5
Software es lo que se denomina producto en ingeniería de software.6
El término «logicial» es un calco léxico del término francés logiciel, neologismo
que se formó en 1969 a partir de las palabras logique ('lógica')
y matériel ('material') como traducción de la Delegación de la informática
responsable del Plan Calcul.7
Definición de software[editar]
Existen varias definiciones similares aceptadas para software, pero probablemente
la más formal sea la siguiente:
Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados,
que forman parte de las operaciones de un sistema de computación.
Extraído del estándar 729 del IEEE8
Considerando esta definición, el concepto de software va más allá de los
programas de computación en sus distintos estados: código
fuente, binario o ejecutable; también su documentación, los datos a procesar e
incluso la información de usuario forman parte del software: es decir, abarca todo
lo intangible, todo lo «no físico» relacionado.
El término software fue usado por primera vez en este sentido por John W.
Tukey en 1957. En la ingeniería de software y las ciencias de la computación,
el software es toda la información procesada por los sistemas informáticos:
programas y datos.
El concepto de leer diferentes secuencias de instrucciones (programa) desde
la memoria de un dispositivo para controlar los cálculos fue introducido
por Charles Babbage como parte de su máquina diferencial. La teoría que forma la
base de la mayor parte del software moderno fue propuesta por Alan Turing en su
ensayo de 1936, «Los números computables», con una aplicación al problema de
decisión.9
Clasificación del software[editar]
Buscador de Programas en Ubuntu 13.10
Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines
prácticos se puede clasificar al software en tres tipos:10
Software de sistema: Su objetivo es desvincular adecuadamente al usuario y
al programador de los detalles del sistema informático en particular que se use,
aislándolo especialmente del procesamiento referido a las características
internas de: memoria, discos, puertos y dispositivos de comunicaciones,
impresoras, pantallas, teclados, etc. El software de sistema le procura al
usuario y programador adecuadas interfaces de alto nivel, controladores,
herramientas y utilidades de apoyo que permiten el mantenimiento del sistema
global. Incluye entre otros:
o Sistemas operativos
o Controladores de dispositivos
o Herramientas de diagnóstico
o Herramientas de corrección y optimización
o Servidores
o Utilidades
Software de programación: Es el conjunto de herramientas que permiten
al programador desarrollar programas de informática, usando diferentes
alternativas y lenguajes de programación, de una manera práctica. Incluyen en
forma básica:
o Editores de texto
o Compiladores
o Intérpretes
o Enlazadores
o Depuradores
o Entornos de desarrollo integrados (IDE): Agrupan las anteriores
herramientas, usualmente en un entorno visual, de forma tal que el
programador no necesite introducir múltiples comandos para compilar,
interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz
gráfica de usuario (GUI).
Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una
o varias tareas específicas, en cualquier campo de actividad susceptible de ser
automatizado o asistido, con especial énfasis en los negocios. Incluye entre
muchos otros:
o Aplicaciones para Control de sistemas y automatización industrial
o Aplicaciones ofimáticas
o Software educativo
o Software empresarial11
o Bases de datos
o Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)
o Videojuegos
o Software médico
o Software de cálculo numérico y simbólico.
o Software de diseño asistido (CAD)
o Software de control numérico (CAM)
Proceso de creación del software[editar]
Artículo principal: Proceso para el desarrollo de software
Se define como «proceso» al conjunto ordenado de pasos a seguir para llegar a la
solución de un problema u obtención de un producto, en este caso particular, para
lograr un producto software que resuelva un problema específico.
El proceso de creación de software puede llegar a ser muy complejo, dependiendo
de su porte, características y criticidad del mismo. Por ejemplo la creación de un
sistema operativo es una tarea que requiere proyecto, gestión, numerosos
recursos y todo un equipo disciplinado de trabajo. En el otro extremo, si se trata de
un sencillo programa (por ejemplo, la resolución de una ecuación de segundo
orden), este puede ser realizado por un solo programador (incluso aficionado)
fácilmente. Es así que normalmente se dividen en tres categorías según su
tamaño (líneas de código) o costo: de «pequeño», «mediano» y «gran porte».
Existen varias metodologías para estimarlo, una de las más populares es el
sistema COCOMO que provee métodos y un software (programa) que calcula y
provee una aproximación de todos los costos de producción en un
«proyecto software» (relación horas/hombre, costo monetario, cantidad de líneas
fuente de acuerdo a lenguaje usado, etc.).
Considerando los de gran porte, es necesario realizar complejas tareas, tanto
técnicas como de gerencia, una fuerte gestión y análisis diversos (entre otras
cosas), la complejidad de ello ha llevado a que desarrolle una ingeniería específica
para tratar su estudio y realización: es conocida como ingeniería de Software.
En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un
avezado analista-programador solitario) pueden realizar la tarea. Aunque, siempre
en casos de mediano y gran porte (y a veces también en algunos de pequeño
porte, según su complejidad), se deben seguir ciertas etapas que son necesarias
para la construcción del software. Tales etapas, si bien deben existir, son flexibles
en su forma de aplicación, de acuerdo a la metodología o proceso de
desarrollo escogido y utilizado por el equipo de desarrollo o por el analista-
programador solitario (si fuere el caso).
Los «procesos de desarrollo de software» poseen reglas preestablecidas, y deben
ser aplicados en la creación del software de mediano y gran porte, ya que en caso
contrario lo más seguro es que el proyecto no logre concluir o termine sin cumplir
los objetivos previstos, y con variedad de fallos inaceptables (fracasan, en pocas
palabras). Entre tales «procesos» los hay ágiles o livianos (ejemplo XP), pesados
y lentos (ejemplo RUP), y variantes intermedias. Normalmente se aplican de
acuerdo al tipo y porte del software a desarrollar, a criterio del líder (si lo hay) del
equipo de desarrollo. Algunos de esos procesos son Programación Extrema (en
inglés eXtreme Programming o XP), Proceso Unificado de Rational (en inglés
Rational Unified Process o RUP), Feature Driven Development (FDD), etc.12
Cualquiera sea el «proceso» utilizado y aplicado al desarrollo del software (RUP,
FDD, XP, etc), y casi independientemente de él, siempre se debe aplicar un
«modelo de ciclo de vida».13
Se estima que, del total de proyectos software grandes emprendidos, un 28 %
fracasan, un 46 % caen en severas modificaciones que lo retrasan y un 26 % son
totalmente exitosos.14
Cuando un proyecto fracasa, rara vez es debido a fallas técnicas, la principal
causa de fallos y fracasos es la falta de aplicación de una buena metodología o
proceso de desarrollo. Entre otras, una fuerte tendencia, desde hace pocas
décadas, es mejorar las metodologías o procesos de desarrollo, o crear nuevas y
concientizar a los profesionales de la informática a su utilización adecuada.
Normalmente los especialistas en el estudio y desarrollo de estas áreas
(metodologías) y afines (tales como modelos y hasta la gestión misma de los
proyectos) son los ingenieros en software, es su orientación. Los especialistas en
cualquier otra área de desarrollo informático (analista, programador, Lic. en
informática, ingeniero en informática, ingeniero de sistemas, etc.) normalmente
aplican sus conocimientos especializados pero utilizando modelos, paradigmas y
procesos ya elaborados.
Es común para el desarrollo de software de mediano porte que los equipos
humanos involucrados apliquen «metodologías propias», normalmente un híbrido
de los procesos anteriores y a veces con criterios propios. 15
El proceso de desarrollo puede involucrar numerosas y variadas tareas, 13 desde lo
administrativo, pasando por lo técnico y hasta la gestión y el gerenciamiento. Pero,
casi rigurosamente, siempre se cumplen ciertas etapas mínimas; las que se
pueden resumir como sigue:
Captura, elicitación,16 especificación y análisis de requisitos (ERS)
Diseño
Codificación
Pruebas (unitarias y de integración)
Instalación y paso a producción
Mantenimiento
En las anteriores etapas pueden variar ligeramente sus nombres, o ser más
globales, o contrariamente, ser más refinadas; por ejemplo indicar como una única
fase (a los fines documentales e interpretativos) de «análisis y diseño»; o indicar
como «implementación» lo que está dicho como «codificación»; pero en rigor,
todas existen e incluyen, básicamente, las mismas tareas específicas.
En el apartado 4 del presente artículo se brindan mayores detalles de cada una de
las etapas indicadas.
Modelos de proceso o ciclo de vida[editar]
Para cada una de las fases o etapas listadas en el ítem anterior, existen sub-
etapas (o tareas). El modelo de proceso o modelo de ciclo de vida utilizado para el
desarrollo, define el orden de las tareas o actividades involucradas, 13 también
define la coordinación entre ellas, y su enlace y realimentación. Entre los más
conocidos se puede mencionar: modelo en cascada o secuencial, modelo
espiral, modelo iterativo incremental. De los antedichos hay a su vez algunas
variantes o alternativas, más o menos atractivas según sea la aplicación requerida
y sus requisitos.14
Modelo cascada[editar]
Este, aunque es más comúnmente conocido como modelo en cascada es también
llamado «modelo clásico», «modelo tradicional» o «modelo lineal secuencial».
El modelo en cascada puro «difícilmente se utiliza tal cual», pues esto implicaría
un previo y absoluto conocimiento de los requisitos, la no volatilidad de los mismos
(o rigidez) y etapas subsiguientes libres de errores; ello sólo podría ser aplicable a
escasos y pequeños sistemas a desarrollar. En estas circunstancias, el paso de
una etapa a otra de las mencionadas sería sin retorno, por ejemplo pasar del
diseño a la codificación implicaría un diseño exacto y sin errores ni probable
modificación o evolución: «codifique lo diseñado sin errores, no habrá en absoluto
variantes futuras». Esto es utópico; ya que intrínsecamente «el software es de
carácter evolutivo»,17 cambiante y difícilmente libre de errores, tanto durante su
desarrollo como durante su vida operativa.13
Figura 2: Modelo cascada puro o secuencial para el ciclo de vida del software.
Algún cambio durante la ejecución de una cualquiera de las etapas en este
modelo secuencial podría implicar reiniciar desde el principio todo el ciclo
completo, lo cual redundaría en altos costos de tiempo y desarrollo. La Figura 2
muestra un posible esquema del modelo en cuestión. 13
Sin embargo, el modelo cascada en algunas de sus variantes es uno de los
actualmente más utilizados,18 por su eficacia y simplicidad, más que nada
en software de pequeño y algunos de mediano porte; pero nunca (o muy rara vez)
se lo usa en su "forma pura", como se dijo anteriormente. En lugar de ello, siempre
se produce alguna realimentación entre etapas, que no es completamente
predecible ni rígida; esto da oportunidad al desarrollo de productos software en los
cuales hay ciertas incertezas, cambios o evoluciones durante el ciclo de vida. Así
por ejemplo, una vez capturados y especificados los requisitos (primera etapa) se
puede pasar al diseño del sistema, pero durante esta última fase lo más probable
es que se deban realizar ajustes en los requisitos (aunque sean mínimos), ya sea
por fallas detectadas, ambigüedades o bien porque los propios requisitos han
cambiado o evolucionado; con lo cual se debe retornar a la primera o previa etapa,
hacer los reajustes pertinentes y luego continuar nuevamente con el diseño; esto
último se conoce como realimentación. Lo normal en el modelo cascada es
entonces la aplicación del mismo con sus etapas realimentadas de alguna forma,
permitiendo retroceder de una a la anterior (e incluso poder saltar a varias
anteriores) si es requerido.
De esta manera se obtiene el «modelo cascada realimentado», que puede ser
esquematizado como lo ilustra la Figura 3.
Figura 3: Modelo cascada realimentado para el ciclo de vida.
Lo dicho es, a grandes rasgos, la forma y utilización de este modelo, uno de los
más usados y populares.13 El modelo cascada realimentado resulta muy atractivo,
hasta ideal, si el proyecto presenta alta rigidez (pocos cambios, previsto no
evolutivo), los requisitos son muy claros y están correctamente especificados. 18
Hay más variantes similares al modelo: refino de etapas (más etapas, menores y
más específicas) o incluso mostrar menos etapas de las indicadas, aunque en tal
caso la faltante estará dentro de alguna otra. El orden de esas fases indicadas en
el ítem previo es el lógico y adecuado, pero adviértase, como se dijo, que
normalmente habrá realimentación hacia atrás.
El modelo lineal o en cascada es el paradigma más antiguo y extensamente
utilizado, sin embargo las críticas a él (ver desventajas) han puesto en duda su
eficacia. Pese a todo, tiene un lugar muy importante en la ingeniería de software y
continúa siendo el más utilizado; y siempre es mejor que un enfoque al azar. 18
Desventajas del modelo cascada:13
Los cambios introducidos durante el desarrollo pueden confundir al equipo
profesional en las etapas tempranas del proyecto. Si los cambios se producen
en etapa madura (codificación o prueba) pueden ser catastróficos para un
proyecto grande.
No es frecuente que el cliente o usuario final explicite clara y completamente
los requisitos (etapa de inicio); y el modelo lineal así lo requiere. La
incertidumbre natural en los comienzos es luego difícil de acomodar. 18
El cliente debe tener paciencia ya que el software no estará disponible hasta
muy avanzado el proyecto. Un error importante detectado por el cliente (en
fase de operación) puede ser desastroso, implicando reinicio del proyecto, con
altos costos.
Modelos evolutivos[editar]
El software evoluciona con el tiempo.1917 Los requisitos del usuario y del producto
suelen cambiar conforme se desarrolla el mismo. Las fechas de mercado y la
competencia hacen que no sea posible esperar a poner en el mercado un
producto absolutamente completo, por lo que se aconseja introducir una versión
funcional limitada de alguna forma para aliviar las presiones competitivas.
En esas u otras situaciones similares, los desarrolladores necesitan modelos de
progreso que estén diseñados para acomodarse a una evolución temporal o
progresiva, donde los requisitos centrales son conocidos de antemano, aunque no
estén bien definidos a nivel detalle.
En el modelo cascada y cascada realimentado no se tiene demasiado en cuenta la
naturaleza evolutiva del software,19 se plantea como estático, con requisitos bien
conocidos y definidos desde el inicio. 13
Los evolutivos son modelos iterativos, permiten desarrollar versiones cada vez
más completas y complejas, hasta llegar al objetivo final deseado; incluso
evolucionar más allá, durante la fase de operación.
Los modelos «iterativo incremental» y «espiral» (entre otros) son dos de los más
conocidos y utilizados del tipo evolutivo.18
Modelo iterativo incremental[editar]
En términos generales, se puede distinguir, en la figura 4, los pasos generales que
sigue el proceso de desarrollo de un producto software. En el modelo de ciclo de
vida seleccionado, se identifican claramente dichos pasos. La descripción del
sistema es esencial para especificar y confeccionar los distintos incrementos hasta
llegar al producto global y final. Las actividades concurrentes (especificación,
desarrollo y validación) sintetizan el desarrollo pormenorizado de los incrementos,
que se hará posteriormente.
Figura 4: Diagrama genérico del desarrollo evolutivo incremental.
El diagrama de la figura 4 muestra en forma muy esquemática, el funcionamiento
de un ciclo iterativo incremental, el cual permite la entrega de versiones parciales
a medida que se va construyendo el producto final. 13 Es decir, a medida que cada
incremento definido llega a su etapa de operación y mantenimiento. Cada versión
emitida incorpora a los anteriores incrementos las funcionalidades y requisitos que
fueron analizados como necesarios.
El incremental es un modelo de tipo evolutivo que está basado en varios ciclos
cascada realimentados aplicados repetidamente, con una filosofía iterativa. 18En la
figura 5 se muestra un refino del diagrama previo, bajo un esquema temporal, para
obtener finalmente el esquema del modelo de ciclo de vida iterativo incremental,
con sus actividades genéricas asociadas. Aquí se observa claramente cada ciclo
cascada que es aplicado para la obtención de un incremento; estos últimos se van
integrando para obtener el producto final completo. Cada incremento es un ciclo
cascada realimentado, aunque, por simplicidad, en la figura 5 se muestra como
secuencial puro.
Figura 5: Modelo iterativo incremental para el ciclo de vida del software.
Se observa que existen actividades de desarrollo (para cada incremento) que son
realizadas en paralelo o concurrentemente, así por ejemplo, en la Figura, mientras
se realiza el diseño detalle del primer incremento ya se está realizando en análisis
del segundo. La Figura 5 es sólo esquemática, un incremento no necesariamente
se iniciará durante la fase de diseño del anterior, puede ser posterior (incluso
antes), en cualquier tiempo de la etapa previa. Cada incremento concluye con la
actividad de «operación y mantenimiento» (indicada como «Operación» en la
figura), que es donde se produce la entrega del producto parcial al cliente. El
momento de inicio de cada incremento es dependiente de varios factores: tipo de
sistema; independencia o dependencia entre incrementos (dos de ellos totalmente
independientes pueden ser fácilmente iniciados al mismo tiempo si se dispone de
personal suficiente); capacidad y cantidad de profesionales involucrados en el
desarrollo; etc.20
Bajo este modelo se entrega software «por partes funcionales más pequeñas»,
pero reutilizables, llamadas incrementos. En general cada incremento se
construye sobre aquel que ya fue entregado. 13
Como se muestra en la Figura 5, se aplican secuencias Cascada en forma
escalonada, mientras progresa el tiempo calendario. Cada secuencia lineal o
Cascada produce un incremento y a menudo el primer incremento es un sistema
básico, con muchas funciones suplementarias (conocidas o no) sin entregar.
El cliente utiliza inicialmente ese sistema básico, intertanto, el resultado de su uso
y evaluación puede aportar al plan para el desarrollo del/los siguientes
incrementos (o versiones). Además también aportan a ese plan otros factores,
como lo es la priorización (mayor o menor urgencia en la necesidad de cada
incremento en particular) y la dependencia entre incrementos (o independencia).
Luego de cada integración se entrega un producto con mayor funcionalidad que el
previo. El proceso se repite hasta alcanzar el software final completo.
Siendo iterativo, con el modelo incremental se entrega un producto parcial pero
completamente operacional en cada incremento, y no una parte que sea usada
para reajustar los requisitos (como si ocurre en el modelo de construcción de
prototipos).18
El enfoque incremental resulta muy útil cuando se dispone de baja dotación de
personal para el desarrollo; también si no hay disponible fecha límite del proyecto
por lo que se entregan versiones incompletas pero que proporcionan al usuario
funcionalidad básica (y cada vez mayor). También es un modelo útil a los fines de
versiones de evaluación.
Nota: Puede ser considerado y útil, en cualquier momento o incremento incorporar
temporalmente el paradigma MCP como complemento, teniendo así una mixtura
de modelos que mejoran el esquema y desarrollo general.
Ejemplo:
Un procesador de texto que sea desarrollado bajo el paradigma incremental
podría aportar, en principio, funciones básicas de edición de archivos y
producción de documentos (algo como un editor simple). En un segundo
incremento se le podría agregar edición más sofisticada, y de generación y
mezcla de documentos. En un tercer incremento podría considerarse el
agregado de funciones de corrección ortográfica, esquemas de paginado
y plantillas; en un cuarto capacidades de dibujo propias y ecuaciones
matemáticas. Así sucesivamente hasta llegar al procesador final requerido.
Así, el producto va creciendo, acercándose a su meta final, pero desde la
entrega del primer incremento ya es útil y funcional para el cliente, el cual
observa una respuesta rápida en cuanto a entrega temprana; sin notar que
la fecha límite del proyecto puede no estar acotada ni tan definida, lo que
da margen de operación y alivia presiones al equipo de desarrollo. 21
Como se dijo, el iterativo incremental es un modelo del tipo evolutivo, es decir
donde se permiten y esperan probables cambios en los requisitos en tiempo de
desarrollo; se admite cierto margen para que el software pueda evolucionar.17
Aplicable cuando los requisitos son medianamente bien conocidos pero no son
completamente estáticos y definidos, cuestión esa que si es indispensable
para poder utilizar un modelo Cascada.
El modelo es aconsejable para el desarrollo de software en el cual se observe,
en su etapa inicial de análisis, que posee áreas bastante bien definidas a
cubrir, con suficiente independencia como para ser desarrolladas en etapas
sucesivas. Tales áreas a cubrir suelen tener distintos grados de apremio por lo
cual las mismas se deben priorizar en un análisis previo, es decir, definir cual
será la primera, la segunda, y así sucesivamente; esto se conoce como
«definición de los incrementos» con base en la priorización. Pueden no existir
prioridades funcionales por parte del cliente, pero el desarrollador debe fijarlas
de todos modos y con algún criterio, ya que basándose en ellas se
desarrollarán y entregarán los distintos incrementos.
El hecho de que existan incrementos funcionales del software lleva
inmediatamente a pensar en un esquema de desarrollo modular, por tanto este
modelo facilita tal paradigma de diseño.
En resumen, un modelo incremental lleva a pensar en un desarrollo modular,
con entregas parciales del producto software denominados «incrementos» del
sistema, que son escogidos según prioridades predefinidas de algún modo. El
modelo permite una implementación con refinamientos sucesivos (ampliación o
mejora). Con cada incremento se agrega nueva funcionalidad o se cubren
nuevos requisitos o bien se mejora la versión previamente implementada del
producto software.
Este modelo brinda cierta flexibilidad para que durante el desarrollo se incluyan
cambios en los requisitos por parte del usuario, un cambio de requisitos
propuesto y aprobado puede analizarse e implementarse como un nuevo
incremento o, eventualmente, podrá constituir una mejora/adecuación de uno
ya planeado. Aunque si se produce un cambio de requisitos por parte del
cliente que afecte incrementos previos ya terminados (detección/incorporación
tardía) se debe evaluar la factibilidad y realizar un acuerdo con el cliente, ya
que puede impactar fuertemente en los costos. 22
La selección de este modelo permite realizar entregas funcionales
tempranas al cliente (lo cual es beneficioso tanto para él como para el grupo
de desarrollo). Se priorizan las entregas de aquellos módulos o incrementos en
que surja la necesidad operativa de hacerlo, por ejemplo para cargas previas
de información, indispensable para los incrementos siguientes. 18
El modelo iterativo incremental no obliga a especificar con precisión y detalle
absolutamente todo lo que el sistema debe hacer, (y cómo), antes de ser
construido (como el caso del cascada, con requisitos congelados). Solo se
hace en el incremento en desarrollo. Esto torna más manejable el proceso y
reduce el impacto en los costos. Esto es así, porque en caso de alterar o
rehacer los requisitos, solo afecta una parte del sistema. Aunque, lógicamente,
esta situación se agrava si se presenta en estado avanzado, es decir en los
últimos incrementos. En definitiva, el modelo facilita la incorporación de
nuevos requisitos durante el desarrollo.
Con un paradigma incremental se reduce el tiempo de desarrollo inicial, ya que
se implementa funcionalidad parcial. También provee un impacto ventajoso
frente al cliente, que es la entrega temprana de partes operativas del software.
El modelo proporciona todas las ventajas del modelo en cascada realimentado,
reduciendo sus desventajas sólo al ámbito de cada incremento.
El modelo incremental no es recomendable para casos de sistemas de tiempo
real, de alto nivel de seguridad, de procesamiento distribuido, o de alto índice
de riesgos.
Modelo espiral[editar]
El modelo espiral fue propuesto inicialmente por Barry Boehm. Es un modelo
evolutivo que conjuga la naturaleza iterativa del modelo MCP con los aspectos
controlados y sistemáticos del Modelo Cascada. Proporciona potencial para
desarrollo rápido de versiones incrementales. En el modelo espiral
el software se construye en una serie de versiones incrementales. En las
primeras iteraciones la versión incremental podría ser un modelo en papel o
bien un prototipo. En las últimas iteraciones se producen versiones cada vez
más completas del sistema diseñado.1318
El modelo se divide en un número de Actividades de marco de trabajo,
llamadas «regiones de tareas». En general existen entre tres y seis regiones
de tareas (hay variantes del modelo). En la figura 6 se muestra el esquema de
un modelo espiral con seis regiones. En este caso se explica una variante del
modelo original de Boehm, expuesto en su tratado de 1988; en 1998 expuso
un tratado más reciente.
Figura 6: Modelo espiral para el ciclo de vida del software.
Las regiones definidas en el modelo de la figura son:
Región 1 — Tareas requeridas para establecer la comunicación entre el
cliente y el desarrollador.
Región 2 — Tareas inherentes a la definición de los recursos, tiempo y otra
información relacionada con el proyecto.
Región 3 — Tareas necesarias para evaluar los riesgos técnicos y de
gestión del proyecto.
Región 4 — Tareas para construir una o más representaciones de la
aplicación software.
Región 5 — Tareas para construir la aplicación, instalarla, probarla y
proporcionar soporte al usuario o cliente (Ej. documentación y práctica).
Región 6 — Tareas para obtener la reacción del cliente, según la
evaluación de lo creado e instalado en los ciclos anteriores.
Las actividades enunciadas para el marco de trabajo son generales y se
aplican a cualquier proyecto, grande, mediano o pequeño, complejo o no. Las
regiones que definen esas actividades comprenden un «conjunto de tareas»
del trabajo: ese conjunto sí se debe adaptar a las características del proyecto
en particular a emprender. Nótese que lo listado en los ítems de 1 a 6 son
conjuntos de tareas, algunas de las ellas normalmente dependen del proyecto
o desarrollo en si.
Proyectos pequeños requieren baja cantidad de tareas y también de
formalidad. En proyectos mayores o críticos cada región de tareas contiene
labores de más alto nivel de formalidad. En cualquier caso se aplican
actividades de protección (por ejemplo, gestión de configuración del software,
garantía de calidad, etc.).
Al inicio del ciclo, o proceso evolutivo, el equipo de ingeniería gira alrededor
del espiral (metafóricamente hablando) comenzando por el centro (marcado
con ๑ en la figura 6) y en el sentido indicado; el primer circuito de la espiral
puede producir el desarrollo de una especificación del producto; los pasos
siguientes podrían generar un prototipo y progresivamente versiones más
sofisticadas del software.
Cada paso por la región de planificación provoca ajustes en el plan del
proyecto; el coste y planificación se realimentan en función de la evaluación
del cliente. El gestor de proyectos debe ajustar el número de iteraciones
requeridas para completar el desarrollo.
El modelo espiral puede ir adaptándose y aplicarse a lo largo de todo el Ciclo
de vida del software (en el modelo clásico, o cascada, el proceso termina a la
entrega del software).
Una visión alternativa del modelo puede observarse examinando el «eje de
punto de entrada de proyectos». Cada uno de los circulitos (๏) fijados a lo
largo del eje representan puntos de arranque de los distintos proyectos
(relacionados); a saber:
Un proyecto de «desarrollo de conceptos» comienza al inicio de la espiral,
hace múltiples iteraciones hasta que se completa, es la zona marcada con
verde.
Si lo anterior se va a desarrollar como producto real, se inicia otro proyecto:
«Desarrollo de nuevo Producto». Que evolucionará con iteraciones hasta
culminar; es la zona marcada en color azul.
Eventual y análogamente se generarán proyectos de «mejoras de
productos» y de «mantenimiento de productos», con las iteraciones
necesarias en cada área (zonas roja y gris, respectivamente).
Cuando la espiral se caracteriza de esta forma, está operativa hasta que
el software se retira, eventualmente puede estar inactiva (el proceso), pero
cuando se produce un cambio el proceso arranca nuevamente en el punto de
entrada apropiado (por ejemplo, en «mejora del producto»).
El modelo espiral da un enfoque realista, que evoluciona igual que
el software;19 se adapta muy bien para desarrollos a gran escala.
El Espiral utiliza el MCP para reducir riesgos y permite aplicarlo en cualquier
etapa de la evolución. Mantiene el enfoque clásico (cascada) pero incorpora un
marco de trabajo iterativo que refleja mejor la realidad.
Este modelo requiere considerar riesgos técnicos en todas las etapas del
proyecto; aplicado adecuadamente debe reducirlos antes de que sean un
verdadero problema.
El Modelo evolutivo como el Espiral es particularmente apto para el desarrollo
de Sistemas Operativos (complejos); también en sistemas de altos riesgos o
críticos (Ej. navegadores y controladores aeronáuticos) y en todos aquellos en
que sea necesaria una fuerte gestión del proyecto y sus riesgos, técnicos o de
gestión.
Desventajas importantes:
Requiere mucha experiencia y habilidad para la evaluación de los riesgos,
lo cual es requisito para el éxito del proyecto.
Es difícil convencer a los grandes clientes que se podrá controlar este
enfoque evolutivo.
Este modelo no se ha usado tanto, como el Cascada (Incremental) o MCP, por
lo que no se tiene bien medida su eficacia, es un paradigma relativamente
nuevo y difícil de implementar y controlar.
Modelo espiral Win & Win[editar]
Una variante interesante del Modelo Espiral previamente visto (Figura 6) es el
«Modelo espiral Win-Win»14 (Barry Boehm). El Modelo Espiral previo (clásico)
sugiere la comunicación con el cliente para fijar los requisitos, en que
simplemente se pregunta al cliente qué necesita y él proporciona la
información para continuar; pero esto es en un contexto ideal que rara vez
ocurre. Normalmente cliente y desarrollador entran en una negociación, se
negocia coste frente a funcionalidad, rendimiento, calidad, etc.
«Es así que la obtención de requisitos requiere una negociación, que tiene
éxito cuando ambas partes ganan».
Las mejores negociaciones se fuerzan en obtener «Victoria & Victoria» (Win &
Win), es decir que el cliente gane obteniendo el producto que lo satisfaga, y el
desarrollador también gane consiguiendo presupuesto y fecha de entrega
realista. Evidentemente, este modelo requiere fuertes habilidades de
negociación.
El modelo Win-Win define un conjunto de actividades de negociación al
principio de cada paso alrededor de la espiral; se definen las siguientes
actividades:
1. Identificación del sistema o subsistemas clave de los directivos * (saber
qué quieren).
2. Determinación de «condiciones de victoria» de los directivos (saber qué
necesitan y los satisface)
3. Negociación de las condiciones «victoria» de los directivos para obtener
condiciones «Victoria & Victoria» (negociar para que ambos ganen).
* Directivo: Cliente escogido con interés directo en el producto, que puede ser
premiado por la organización si tiene éxito o criticado si no.
El modelo Win & Win hace énfasis en la negociación inicial, también introduce
3 hitos en el proceso llamados «puntos de fijación», que ayudan a establecer
la completitud de un ciclo de la espiral, y proporcionan hitos de decisión antes
de continuar el proyecto de desarrollo del software.
Etapas en el desarrollo del software[editar]
Captura, análisis y especificación de requisitos[editar]
Al inicio de un desarrollo (no de un proyecto), esta es la primera fase que se
realiza, y, según el modelo de proceso adoptado, puede casi terminar para
pasar a la próxima etapa (caso de Modelo Cascada Realimentado) o puede
hacerse parcialmente para luego retomarla (caso Modelo Iterativo Incremental
u otros de carácter evolutivo).
En simple palabras y básicamente, durante esta fase, se adquieren, reúnen y
especifican las características funcionales y no funcionales que deberá cumplir
el futuro programa o sistema a desarrollar.
Las bondades de las características, tanto del sistema o programa a
desarrollar, como de su entorno, parámetros no funcionales y arquitectura
dependen enormemente de lo bien lograda que esté esta etapa. Esta es,
probablemente, la de mayor importancia y una de las fases más difíciles de
lograr certeramente, pues no es automatizable, no es muy técnica y depende
en gran medida de la habilidad y experiencia del analista que la realice.
Involucra fuertemente al usuario o cliente del sistema, por tanto tiene matices
muy subjetivos y es difícil de modelar con certeza o aplicar una técnica que
sea «la más cercana a la adecuada» (de hecho no existe «la estrictamente
adecuada»). Si bien se han ideado varias metodologías, incluso software de
apoyo, para captura, elicitación y registro de requisitos, no existe una forma
infalible o absolutamente confiable, y deben aplicarse conjuntamente buenos
criterios y mucho sentido común por parte del o los analistas encargados de la
tarea; es fundamental también lograr una fluida y adecuada comunicación y
comprensión con el usuario final o cliente del sistema.
El artefacto más importante resultado de la culminación de esta etapa es lo
que se conoce como especificación de requisitos software o simplemente
documento ERS.
Como se dijo, la habilidad del analista para interactuar con el cliente es
fundamental; lo común es que el cliente tenga un objetivo general o problema
que resolver, no conoce en absoluto el área (informática), ni su jerga, ni
siquiera sabe con precisión qué debería hacer el producto software (qué y
cuantas funciones) ni, mucho menos, cómo debe operar. En otros casos
menos frecuentes, el cliente «piensa» que sabe precisamente lo que
el software tiene que hacer, y generalmente acierta muy parcialmente, pero su
empecinamiento entorpece la tarea de elicitación. El analista debe tener la
capacidad para lidiar con este tipo de problemas, que incluyen relaciones
humanas; tiene que saber ponerse al nivel del usuario para permitir una
adecuada comunicación y comprensión.23
Escasas son las situaciones en que el cliente sabe con certeza e incluso con
completitud lo que requiere de su futuro sistema, este es el caso más sencillo
para el analista.
Las tareas relativas a captura, elicitación, modelado y registro de requisitos,
además de ser sumamente importante, puede llegar a ser dificultosa de lograr
acertadamente y llevar bastante tiempo relativo al proceso total del desarrollo;
al proceso y metodologías para llevar a cabo este conjunto de actividades
normalmente se las asume parte propia de la ingeniería de software, pero
dada la antedicha complejidad, actualmente se habla de una ingeniería de
requisitos,24 aunque ella aún no existe formalmente.
Hay grupos de estudio e investigación, en todo el mundo, que están
exclusivamente abocados a idear modelos, técnicas y procesos para intentar
lograr la correcta captura, análisis y registro de requisitos. Estos grupos son los
que normalmente hablan de la ingeniería de requisitos; es decir se plantea
esta como un área o disciplina pero no como una carrera universitaria en sí
misma.
Algunos requisitos no necesitan la presencia del cliente, para ser capturados o
analizados; en ciertos casos los puede proponer el mismo analista o, incluso,
adoptar unilateralmente decisiones que considera adecuadas (tanto en
requisitos funcionales como no funcionales). Por citar ejemplos probables:
Algunos requisitos sobre la arquitectura del sistema, requisitos no funcionales
tales como los relativos al rendimiento, nivel de soporte a errores operativos,
plataformas de desarrollo, relaciones internas o ligas entre la información
(entre registros o tablas de datos) a almacenar en caso de bases o bancos de
datos, etc. Algunos funcionales tales como opciones secundarias o de soporte
necesarias para una mejor o más sencilla operatividad; etc.
La obtención de especificaciones a partir del cliente (u otros actores
intervinientes) es un proceso humano muy interactivo e iterativo; normalmente
a medida que se captura la información, se la analiza y realimenta con el
cliente, refinándola, puliéndola y corrigiendo si es necesario; cualquiera sea el
método de ERS utilizado. EL analista siempre debe llegar a conocer la
temática y el problema que resolver, dominarlo, hasta cierto punto, hasta el
ámbito que el futuro sistema a desarrollar lo abarque. Por ello el analista debe
tener alta capacidad para comprender problemas de muy diversas áreas o
disciplinas de trabajo (que no son específicamente suyas); así por ejemplo, si
el sistema a desarrollar será para gestionar información de una aseguradora y
sus sucursales remotas, el analista se debe compenetrar en cómo ella trabaja
y maneja su información, desde niveles muy bajos e incluso llegando hasta los
gerenciales. Dada a gran diversidad de campos a cubrir, los analistas suelen
ser asistidos por especialistas, es decir gente que conoce profundamente el
área para la cual se desarrollará el software; evidentemente una única persona
(el analista) no puede abarcar tan vasta cantidad de áreas del conocimiento.
En empresas grandes de desarrollo de productos software, es común tener
analistas especializados en ciertas áreas de trabajo.
Contrariamente, no es problema del cliente, es decir él no tiene por qué saber
nada de software, ni de diseños, ni otras cosas relacionadas; sólo se debe
limitar a aportar objetivos, datos e información (de mano propia o de sus
registros, equipos, empleados, etc) al analista, y guiado por él, para que, en
primera instancia, defina el «Universo de Discurso», y con posterior trabajo
logre confeccionar el adecuado documento ERS.
Es bien conocida la presión que sufren los desarrolladores de sistemas
informáticos para comprender y rescatar las necesidades de los
clientes/usuarios. Cuanto más complejo es el contexto del problema más difícil
es lograrlo, a veces se fuerza a los desarrolladores a tener que convertirse en
casi expertos de los dominios que analizan.
Cuando esto no sucede es muy probable que se genere un conjunto de
requisitos25 erróneos o incompletos y por lo tanto un producto de software con
alto grado de desaprobación por parte de los clientes/usuarios y un altísimo
costo de reingeniería y mantenimiento. Todo aquello que no se detecte, o
resulte mal entendido en la etapa inicial provocará un fuerte impacto negativo
en los requisitos, propagando esta corriente degradante a lo largo de todo el
proceso de desarrollo e incrementando su perjuicio cuanto más tardía sea
su detección (Bell y Thayer 1976)(Davis 1993).
Procesos, modelado y formas de elicitación de requisitos[editar]
Siendo que la captura, elicitación y especificación de requisitos, es una parte
crucial en el proceso de desarrollo de software, ya que de esta etapa depende
el logro de los objetivos finales previstos, se han ideado modelos y diversas
metodologías de trabajo para estos fines. También existen
herramientas software que apoyan las tareas relativas realizadas por el
ingeniero en requisitos.
El estándar IEEE 830-1998 brinda una normalización de las «Prácticas
recomendadas para la especificación de requisitos software».26
A medida que se obtienen los requisitos, normalmente se los va analizando, el
resultado de este análisis, con o sin el cliente, se plasma en un documento,
conocido como ERS o Especificación de requisitos software, cuya estructura
puede venir definida por varios estándares, tales como CMMI.
Un primer paso para realizar el relevamiento de información es el conocimiento
y definición acertada lo que se conoce como «Universo de Discurso» del
problema, que se define y entiende por:
Universo de Discurso (UdeD): es el contexto general en el cual
el software deberá ser desarrollado y deberá operar. El UdeD incluye todas las
fuentes de información y todas las personas relacionadas con el software.
Esas personas son conocidas también como actores de ese universo. El
UdeD es la realidad circunstanciada por el conjunto de objetivos definidos por
quienes demandaron el software.
A partir de la extracción y análisis de información en su ámbito se obtienen
todas las especificaciones necesarias y tipos de requisitos para el futuro
producto software.
El objetivo de la ingeniería de requisitos (IR) es sistematizar el proceso de
definición de requisitos permitiendo elicitar, modelar y analizar el problema,
generando un compromiso entre los ingenieros de requisitos y los
clientes/usuarios, ya que ambos participan en la generación y definición de los
requisitos del sistema. La IR aporta un conjunto de métodos, técnicas y
herramientas que asisten a los ingenieros de requisitos (analistas) para
obtener requisitos lo más seguros, veraces, completos y oportunos posibles,
permitiendo básicamente:
Comprender el problema
Facilitar la obtención de las necesidades del cliente/usuario
Validar con el cliente/usuario
Garantizar las especificaciones de requisitos
Si bien existen diversas formas, modelos y metodologías para elicitar, definir y
documentar requisitos, no se puede decir que alguna de ellas sea mejor o peor
que la otra, suelen tener muchísimo en común, y todas cumplen el mismo
objetivo. Sin embargo, lo que si se puede decir sin dudas es que es
indispensable utilizar alguna de ellas para documentar las especificaciones del
futuro producto software. Así por ejemplo, hay un grupo de investigación
argentino que desde hace varios años ha propuesto y estudia el uso del LEL
(Léxico Extendido del Lenguaje) y Escenarios como metodología, aquí 27 se
presenta una de las tantas referencias y bibliografía sobre ello. Otra forma,
más ortodoxa, de capturar y documentar requisitos se puede obtener en
detalle, por ejemplo, en el trabajo de la Universidad de Sevilla sobre
«Metodología para el Análisis de Requisitos de Sistemas Software». 28
En la Figura 7 se muestra un esquema, más o menos riguroso, aunque no
detallado, de los pasos y tareas a seguir para realizar la captura, análisis y
especificación de requisitos software. También allí se observa qué artefacto o
documento se obtiene en cada etapa del proceso. En el diagrama no se
explicita metodología o modelo a utilizar, sencillamente se pautan las tareas
que deben cumplirse, de alguna manera.
Figura 7: Diagrama de tareas para captura y análisis de requisitos.
Una posible lista, general y ordenada, de tareas recomendadas para obtener la
definición de lo que se debe realizar, los productos a obtener y las técnicas a
emplear durante la actividad de elicitación de requisitos, en fase
de Especificación de requisitos software es:
1. Obtener información sobre el dominio del problema y el sistema actual
(UdeD).
2. Preparar y realizar las reuniones para elicitación/negociación.
3. Identificar/revisar los objetivos del usuario.
4. Identificar/revisar los objetivos del sistema.
5. Identificar/revisar los requisitos de información.
6. Identificar/revisar los requisitos funcionales.
7. Identificar/revisar los requisitos no funcionales.
8. Priorizar objetivos y requisitos.
Algunos principios básicos a tener en cuenta:
Presentar y entender cabalmente el dominio de la información del
problema.
Definir correctamente las funciones que debe realizar el software.
Representar el comportamiento del software a consecuencias de
acontecimientos externos, particulares, incluso inesperados.
Reconocer requisitos incompletos, ambiguos o contradictorios.
Dividir claramente los modelos que representan la información, las
funciones y comportamiento y características no funcionales.
Clasificación e identificación de requisitos[editar]
Se pueden identificar dos formas de requisitos:
Requisitos de usuario: Los requisitos de usuario son frases en lenguaje
natural junto a diagramas con los servicios que el sistema debe
proporcionar, así como las restricciones bajo las que debe operar.
Requisitos de sistema: Los requisitos de sistema determinan los servicios
del sistema y pero con las restricciones en detalle. Sirven como contrato.
Es decir, ambos son lo mismo, pero con distinto nivel de detalle.
Ejemplo de requisito de usuario: El sistema debe hacer préstamos Ejemplo de
requisito de sistema: Función préstamo: entrada código socio, código ejemplar;
salida: fecha devolución; etc.
Se clasifican en tres los tipos de requisitos de sistema:
Requisitos funcionales
Los requisitos funcionales describen:
Los servicios que proporciona el sistema (funciones).
La respuesta del sistema ante determinadas entradas.
El comportamiento del sistema en situaciones particulares.
Requisitos no funcionales
Los requisitos no funcionales son restricciones de los servicios o funciones que
ofrece el sistema (ej. cotas de tiempo, proceso de desarrollo, rendimiento, etc.)
Ejemplo 1. La biblioteca Central debe ser capaz de atender
simultáneamente a todas las bibliotecas de la Universidad
Ejemplo 2. El tiempo de respuesta a una consulta remota no debe ser
superior a 1/2 s
A su vez, hay tres tipos de requisitos no funcionales:
Requisitos del producto. Especifican el comportamiento del producto
(Ej. prestaciones, memoria, tasa de fallos, etc.)
Requisitos organizativos. Se derivan de las políticas y
procedimientos de las organizaciones de los clientes y
desarrolladores (Ej. estándares de proceso, lenguajes de
programación, etc.)
Requisitos externos. Se derivan de factores externos al sistema y al
proceso de desarrollo (Ej. requisitos legislativos, éticos, etc.)
Requisitos del dominio.
Los requisitos del dominio se derivan del dominio de la aplicación y
reflejan características de dicho dominio.
Pueden ser funcionales o no funcionales.
Ej. El sistema de biblioteca de la Universidad debe ser capaz de
exportar datos mediante el Lenguaje de Intercomunicación de
Bibliotecas de España (LIBE). Ej. El sistema de biblioteca no podrá
acceder a bibliotecas con material censurado.
Diseño del sistema[editar]
En ingeniería de software, el diseño es una fase de ciclo de vida
del software. Se basa en la especificación de requisitos producido por el
análisis de los requisitos (fase de análisis), el diseño define cómo estos
requisitos se cumplirán, la estructura que debe darse al sistema
de software para que se haga realidad.
El diseño sigue siendo una fase separada del la programación o
codificación, esta última corresponde a la traducción en un
determinado lenguaje de programación de las premisas adoptadas en
el diseño.
Las distinciones entre las actividades mencionadas hasta ahora no
siempre son claras cómo se quisiera en las teorías clásicas de
ingeniería de software. El diseño, en particular, puede describir el
funcionamiento interno de un sistema en diferentes niveles de detalle,
cada una de ellos se coloca en una posición intermedia entre el análisis
y codificación.
Normalmente se entiende por "diseño de la arquitectura" al diseño de
"muy alto nivel", que sólo define la estructura del sistema en términos
de la módulos de software de que se compone y las relaciones
macroscópicas entre ellos. A este nivel de diseño pertenecen fórmulas
como cliente-servidor o “tres niveles”, o, más generalmente, las
decisiones sobre el uso de la arquitectura de hardware especial que se
utilice, el sistema operativo, DBMS, Protocolos de red, etc.
Un nivel intermedio de detalle puede definir la descomposición del
sistema en módulos, pero esta vez con una referencia más o menos
explícita al modo de descomposición que ofrece el particular lenguaje
de programación con el que el desarrollo se va a implementar, por
ejemplo, en un diseño realizado con la tecnología de objetos, el
proyecto podría describir al sistema en términos de clases y sus
interrelaciones.
El diseño detallado, por último, es una descripción del sistema muy
cercana a la codificación (por ejemplo, describir no solo las clases en
abstracto, sino también sus atributos y los métodos con sus tipos).
Debido a la naturaleza "intangible" del software, y dependiendo de las
herramientas que se utilizan en el proceso, la frontera entre el diseño y
la codificación también puede ser virtualmente imposible de identificar.
Por ejemplo, algunas herramientas CASE son capaces de generar
código a partir de diagramas UML, los que describen gráficamente la
estructura de un sistema software.
Codificación del software[editar]
Durante esta etapa se realizan las tareas que comúnmente se conocen
como programación; que consiste, esencialmente, en llevar a código
fuente, en el lenguaje de programación elegido, todo lo diseñado en la
fase anterior. Esta tarea la realiza el programador, siguiendo por
completo los lineamientos impuestos en el diseño y en consideración
siempre a los requisitos funcionales y no funcionales (ERS)
especificados en la primera etapa.
Es común pensar que la etapa de programación o codificación (algunos
la llaman implementación) es la que insume la mayor parte del trabajo
de desarrollo del software; sin embargo, esto puede ser relativo (y
generalmente aplicable a sistemas de pequeño porte) ya que las etapas
previas son cruciales, críticas y pueden llevar bastante más tiempo. Se
suele hacer estimaciones de un 30 % del tiempo total insumido en la
programación, pero esta cifra no es consistente ya que depende en
gran medida de las características del sistema, su criticidad y el
lenguaje de programación elegido.14 En tanto menor es el nivel del
lenguaje mayor será el tiempo de programación requerido, así por
ejemplo se tardaría más tiempo en codificar un algoritmo en lenguaje
ensamblador que el mismo programado en lenguaje C.
Mientras se programa la aplicación, sistema, o software en general, se
realizan también tareas de depuración, esto es la labor de ir liberando al
código de los errores factibles de ser hallados en esta fase (de
semántica, sintáctica y lógica). Hay una suerte de solapamiento con la
fase siguiente, ya que para depurar la lógica es necesario realizar
pruebas unitarias, normalmente con datos de prueba; claro es que no
todos los errores serán encontrados sólo en la etapa de programación,
habrá otros que se encontrarán durante las etapas subsiguientes. La
aparición de algún error funcional (mala respuesta a los requisitos)
eventualmente puede llevar a retornar a la fase de diseño antes de
continuar la codificación.
Durante la fase de programación, el código puede adoptar varios
estados, dependiendo de la forma de trabajo y del lenguaje elegido, a
saber:
Código fuente: es el escrito directamente por los programadores en
editores de texto, lo cual genera el programa. Contiene el conjunto
de instrucciones codificadas en algún lenguaje de alto nivel. Puede
estar distribuido en paquetes, procedimientos, bibliotecas fuente,
etc.
Código objeto: es el código binario o intermedio resultante de
procesar con un compilador el código fuente. Consiste en
una traducción completa y de una sola vez de este último. El
código objeto no es inteligible por el ser humano (normalmente es
formato binario) pero tampoco es directamente ejecutable por la
computadora. Se trata de una representación intermedia entre el
código fuente y el código ejecutable, a los fines de un enlace final
con las rutinas de biblioteca y entre procedimientos o bien para su
uso con un pequeño intérprete intermedio [a modo de distintos
ejemplos véase EUPHORIA, (intérprete
intermedio), FORTRAN (compilador puro) MSIL (Microsoft
Intermediate Language) (intérprete) y BASIC (intérprete puro,
intérprete intermedio, compilador intermedio o compilador puro,
depende de la versión utilizada)].
o El código objeto no existe si el programador trabaja con un
lenguaje a modo de intérprete puro, en este caso el mismo
intérprete se encarga de traducir y ejecutar línea por línea el
código fuente (de acuerdo al flujo del programa), en tiempo de
ejecución. En este caso tampoco existe el o los archivos
de código ejecutable. Una desventaja de esta modalidad es que
la ejecución del programa o sistema es un poco más lenta que si
se hiciera con un intérprete intermedio, y bastante más lenta que
si existe el o los archivos de código ejecutable. Es decir no
favorece el rendimiento en velocidad de ejecución. Pero una
gran ventaja de la modalidad intérprete puro, es que él está
forma de trabajo facilita enormemente la tarea de depuración del
código fuente (frente a la alternativa de hacerlo con un
compilador puro). Frecuentemente se suele usar una forma
mixta de trabajo (si el lenguaje de programación elegido lo
permite), es decir inicialmente trabajar a modo de intérprete
puro, y una vez depurado el código fuente (liberado de errores)
se utiliza un compilador del mismo lenguaje para obtener el
código ejecutable completo, con lo cual se agiliza la depuración
y la velocidad de ejecución se optimiza.
Código ejecutable: Es el código binario resultado de enlazar uno o
más fragmentos de código objeto con las rutinas
y bibliotecas necesarias. Constituye uno o más archivos
binarios con un formato tal que el sistema operativo es capaz de
cargarlo en la memoria RAM (eventualmente también parte en
una memoria virtual), y proceder a su ejecución directa. Por lo
anterior se dice que el código ejecutable es directamente «inteligible
por la computadora». El código ejecutable, también conocido
como código máquina, no existe si se programa con modalidad de
«intérprete puro».
Pruebas (unitarias y de integración)[editar]
Entre las diversas pruebas que se le efectúan al software se pueden
distinguir principalmente:
Prueba unitarias: Consisten en probar o testear piezas
de software pequeñas; a nivel de secciones, procedimientos,
funciones y módulos; aquellas que tengan funcionalidades
específicas. Dichas pruebas se utilizan para asegurar el correcto
funcionamiento de secciones de código, mucho más reducidas que
el conjunto, y que tienen funciones concretas con cierto grado de
independencia.
Pruebas de integración: Se realizan una vez que las pruebas
unitarias fueron concluidas exitosamente; con éstas se intenta
asegurar que el sistema completo, incluso los subsistemas que
componen las piezas individuales grandes del software funcionen
correctamente al operar e inteoperar en conjunto.
Las pruebas normalmente se efectúan con los llamados datos de
prueba, que es un conjunto seleccionado de datos típicos a los que
puede verse sometido el sistema, los módulos o los bloques de código.
También se escogen: Datos que llevan a condiciones límites
al software a fin de probar su tolerancia y robustez; datos de utilidad
para mediciones de rendimiento; datos que provocan condiciones
eventuales o particulares poco comunes y a las que
el software normalmente no estará sometido pero pueden ocurrir; etc.
Los «datos de prueba» no necesariamente son ficticios o «creados»,
pero normalmente sí lo son los de poca probabilidad de ocurrencia.
Generalmente, existe un fase probatoria final y completa del software,
llamada Beta Test, durante la cual el sistema instalado en condiciones
normales de operación y trabajo es probado exhaustivamente a fin de
encontrar errores, inestabilidades, respuestas erróneas, etc. que hayan
pasado los previos controles. Estas son normalmente realizadas por
personal idóneo contratado o afectado específicamente a ello. Los
posibles errores encontrados se transmiten a los desarrolladores para
su depuración. En el caso de software de desarrollo «a pedido», el
usuario final (cliente) es el que realiza el Beta Test, teniendo para ello
un período de prueba pactado con el desarrollador.
Instalación y paso a producción[editar]
La instalación del software es el proceso por el cual los programas
desarrollados son transferidos apropiadamente al computador destino,
inicializados, y, eventualmente, configurados; todo ello con el propósito
de ser ya utilizados por el usuario final. Constituye la etapa final en el
desarrollo propiamente dicho del software. Luego de esta el producto
entrará en la fase de funcionamiento y producción, para el que fuera
diseñado.
La instalación, dependiendo del sistema desarrollado, puede consistir
en una simple copia al disco rígido destino (casos raros actualmente); o
bien, más comúnmente, con una de complejidad intermedia en la que
los distintos archivos componentes
del software (ejecutables, bibliotecas, datos propios, etc.)
son descomprimidos y copiados a lugares específicos preestablecidos
del disco; incluso se crean vínculos con otros productos, además del
propio sistema operativo. Este último caso, comúnmente es un proceso
bastante automático que es creado y guiado con
herramientas software específicas (empaquetado y distribución,
instaladores).
En productos de mayor complejidad, la segunda alternativa es la
utilizada, pero es realizada o guiada por especialistas; puede incluso
requerirse la instalación en varios y distintos computadores (instalación
distribuida).
También, en software de mediana y alta complejidad normalmente es
requerido un proceso de configuración y chequeo, por el cual se
asignan adecuados parámetros de funcionamiento y se testea la
operatividad funcional del producto.
En productos de venta masiva las instalaciones completas, si son
relativamente simples, suelen ser realizadas por los propios usuarios
finales (tales como sistemas operativos, paquetes de oficina, utilitarios,
etc.) con herramientas propias de instalación guiada; incluso la
configuración suele ser automática. En productos de diseño específico
o «a medida» la instalación queda restringida, normalmente, a personas
especialistas involucradas en el desarrollo del software en cuestión.
Una vez realizada exitosamente la instalación del software, el mismo
pasa a la fase de producción (operatividad), durante la cual cumple las
funciones para las que fue desarrollado, es decir, es finalmente utilizado
por el (o los) usuario final, produciendo los resultados esperados.
Mantenimiento[editar]
El mantenimiento de software es el proceso de control, mejora y
optimización del software ya desarrollado e instalado, que también
incluye depuración de errores y defectos que puedan haberse filtrado
de la fase de pruebas de control y beta test. Esta fase es la última
(antes de iterar, según el modelo empleado) que se aplica al ciclo de
vida del desarrollo de software. La fase de mantenimiento es la que
viene después de que el software está operativo y en producción.
De un buen diseño y documentación del desarrollo dependerá cómo
será la fase de mantenimiento, tanto en costo temporal como
monetario. Modificaciones realizadas a un software que fue elaborado
con una documentación indebida o pobre y mal diseño puede llegar a
ser tanto o más costosa que desarrollar el software desde el inicio. Por
ello, es de fundamental importancia respetar debidamente todas las
tareas de las fases del desarrollo y mantener adecuada y completa la
documentación.
El período de la fase de mantenimiento es normalmente el mayor en
todo el ciclo de vida.14 Esta fase involucra también actualizaciones y
evoluciones del software; no necesariamente implica que el sistema
tuvo errores. Uno o más cambios en el software, por ejemplo de
adaptación o evolutivos, puede llevar incluso a rever y adaptar desde
parte de las primeras fases del desarrollo inicial, alterando todas las
demás; dependiendo de cuán profundos sean los cambios. El modelo
cascada común es particularmente costoso en mantenimiento, ya que
su rigidez implica que cualquier cambio provoca regreso a fase inicial y
fuertes alteraciones en las demás fases del ciclo de vida.
Durante el período de mantenimiento, es común que surjan nuevas
revisiones y versiones del producto; que lo liberan más depurado, con
mayor y mejor funcionalidad, mejor rendimiento, etc. Varias son las
facetas que pueden ser alteradas para provocar cambios deseables,
evolutivos, adaptaciones o ampliaciones y mejoras.
Básicamente se tienen los siguientes tipos de cambios:
Perfectivos: Aquellos que llevan a una mejora de la calidad interna
del software en cualquier aspecto: Reestructuración del código,
definición más clara del sistema y su documentación; optimización
del rendimiento y eficiencia.
Evolutivos: Agregados, modificaciones, incluso eliminaciones,
necesarias en el software para cubrir su expansión o cambio, según
las necesidades del usuario.
Adaptivos: Modificaciones que afectan a los entornos en los que el
sistema opera, tales como: Cambios de configuración del hardware
(por actualización o mejora de componentes electrónicos), cambios
en el software de base, en gestores de base de datos, en
comunicaciones, etc.
Correctivos: Alteraciones necesarias para corregir errores de
cualquier tipo en el producto de software desarrollado.
Carácter evolutivo del software[editar]
El software es el producto derivado del proceso de desarrollo, según la
ingeniería de software. Este producto es intrínsecamente evolutivo
durante su ciclo de vida: en general, evoluciona generando versiones
cada vez más completas, complejas, mejoradas, optimizadas en algún
aspecto, adecuadas a nuevas plataformas (sean de hardware o
sistemas operativos), etc.29
Cuando un sistema deja de evolucionar, eventualmente cumplirá con su
ciclo de vida, entrará en obsolescencia e inevitablemente, tarde o
temprano, será reemplazado por un producto nuevo.
El software evoluciona sencillamente porque se debe adaptar a los
cambios del entorno, sean funcionales (exigencias de usuarios),
operativos, de plataforma o arquitectura hardware.
La dinámica de evolución del software es el estudio de los cambios del
sistema. La mayor contribución en esta área fue realizada por Meir M.
Lehman y Belady, comenzando en los años 70 y 80. Su trabajo
continuó en la década de 1990, con Lehman y otros investigadores 30 de
relevancia en la realimentación en los procesos de evolución (Lehman,
1996; Lehman et al., 1998; lehman et al., 2001). A partir de esos
estudios propusieron un conjunto de leyes (conocidas como leyes de
Lehman)17 respecto de los cambios producidos en los sistemas. Estas
leyes (en realidad son hipótesis) son invariantes y ampliamente
aplicables.
Lehman y Belady analizaron el crecimiento y la evolución de varios
sistemas software de gran porte; derivando finalmente, según sus
medidas, las siguientes ocho leyes:
1. Cambio continuo: Un programa que se usa en un entorno real
necesariamente debe cambiar o se volverá progresivamente
menos útil en ese entorno.
2. Complejidad creciente: A medida que un programa en evolución
cambia, su estructura tiende a ser cada vez más compleja. Se
deben dedicar recursos extras para preservar y simplificar la
estructura.
3. Evolución prolongada del programa: La evolución de los
programas es un proceso autorregulativo. Los atributos de los
sistemas, tales como tamaño, tiempo entre entregas y la
cantidad de errores documentados son aproximadamente
invariantes para cada entrega del sistema.
4. Estabilidad organizacional: Durante el tiempo de vida de un
programa, su velocidad de desarrollo es aproximadamente
constante e independiente de los recursos dedicados al
desarrollo del sistema.
5. Conservación de la familiaridad: Durante el tiempo de vida de un
sistema, el cambio incremental en cada entrega es
aproximadamente constante.
6. Crecimiento continuado: La funcionalidad ofrecida por los
sistemas tiene que crecer continuamente para mantener la
satisfacción de los usuarios.
7. Decremento de la calidad: La calidad de los
sistemas software comenzará a disminuir a menos que dichos
sistemas se adapten a los cambios de su entorno de
funcionamiento.
8. Realimentación del sistema: Los procesos de evolución
incorporan sistemas de realimentación multiagente y multibucle
y estos deben ser tratados como sistemas de realimentación
para lograr una mejora significativa del producto.
Componentes de Software
Qué es el Software?
La palabra Software traducida literalmente seria: partes blandas o suaves de la computadora en contraposicio
software es entonces el conjunto de los componentes lógicos necesarios que hacen posible la realización de t
lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que p
tareas concernientes a la edición de textos; el software de sistema, tal como el sistema operativo, que, básica
programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el re
proporcionando una interfaz amigable con el usuario.
Nota: Realiza en tu cuaderno un cuadro sinóptico que muestre como
esta clasificado el software.
Clasificación del software
Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos
se puede clasificar al software en tres grandes tipos:
1. Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al
programador de los detalles del sistema informático en particular que se use, aislándolo
especialmente del procesamiento referido a las características internas de: memoria, discos,
puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software
de sistema le proporciona al usuario y programador adecuadas interfaces de alto nivel,
herramientas y utilidades de apoyo que permiten su mantenimiento. Incluye entre otros:
Sistemas operativos (Windows, Linux, MacOS)
Controladores de dispositivos (Drivers, Codecs)
Herramientas de diagnóstico (Everest, Antivirus)
Herramientas de Corrección y Optimización (Ccleaner)
Servidores (FileZilla, WampServer)
Utilidades (RedoBackup)
2. Software de programación: Es el conjunto de herramientas que permiten al
programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes
de programación, de una manera práctica. Incluye entre otros:
Editores de texto
Compiladores
Intérpretes
Enlazadores
Depuradores
Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas,
usualmente en un entorno visual, de forma tal que el programador no necesite
introducir múltiples comandos para compilar, interpretar, depurar, etc.
Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).
3. Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias
tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o
asistido, con especial énfasis en los negocios. Incluye entre otros:
Aplicaciones ofimáticas (Office, OpenOffice)
Software educativo (Hot Potatoes, Jclic, Moodle, Dokeos, Prezi)
Software empresarial (ERP, CRM)
Bases de datos (Oracle, Mysql, sqlserver)
Telecomunicaciones (por ejemplo Internet y toda su estructura lógica, Skype,
Messenger)
Videojuegos
Software médico (Historia Clinica Digital)
Software de Cálculo Numérico y simbólico (Matlab, Matematica)
Software de Diseño Asistido (Corel, AutoCad,PhotoShop)
Aplicaciones para Control de sistemas y automatización industrial
Software de Control Numérico (CAM)
Nota: Analizar y plasmar este cuadro en tu cuaderno
Funciones del Sistema Operativo
Nota: Realiza en tu cuaderno un cuadro sinoptico que muestre
como están Clasificados los Sistemas Operativos, Investigar y consignar
en el cuaderno minimo 5 nombres de sistemas operativos para
Computadores y Sistemas Operativos para Moviles.
Clasificación de los Sistemas Operativos
Administración de tareas
Monotarea: Solamente puede ejecutar un proceso (aparte de los procesos del
propio S.O.) en un momento dado. Una vez que empieza a ejecutar un
proceso, continuará haciéndolo hasta su
finalización y/o interrupción.
Multitarea: Es capaz de ejecutar varios procesos al mismo tiempo. Este tipo de
S.O. normalmente asigna los recursos disponibles (CPU, memoria, periféricos)
de forma alternada a los procesos que los solicitan, de manera que el usuario
percibe que todos funcionan a la vez, de forma concurrente.
Administración de usuarios
Monousuario: Si sólo permite ejecutar los programas de un usuario al mismo
tiempo.
Multiusuario: Si permite que varios usuarios ejecuten simultáneamente sus
programas, accediendo a la vez a los recursos de la computadora.
Normalmente estos sistemas operativos utilizan métodos de protección de
datos, de manera que un programa no pueda usar o cambiar los datos de otro
usuario.
Manejo de recursos
Centralizado: Si permite usar los recursos de una sola computadora.
Distribuido: Si permite utilizar los recursos (memoria, CPU, disco, periféricos... )
de más de una computadora al mismo tiempo.
Componente de software
Ir a la navegaciónIr a la búsqueda
Un componente UML con interfaces proveídas y requeridas.
Un componente de software es una unidad modular de un
programa software con interfaces y dependencias bien definidas que permiten
ofertar o solicitar un conjunto de servicios o funcionales.
Índice
1Definiciones
o 1.1Según el OMG
o 1.2Según el WCOP
2Características
3Implementaciones
o 3.1Estándares
o 3.2Paradigmas
4Véase también
5Referencias
6Enlaces externos
Definiciones[editar]
Según el OMG[editar]
Véase también: Object Management Group
En la especificación UML, es una unidad modular con interfaces bien definidas,
que es reemplazable dentro del contexto. 1 Así, un componente define su
comportamiento en términos de interfaces proveídas y requeridas; y dicho
componente será totalmente reemplazable por otro que cumpla con las interfaces
declaradas.
UML no coloca ninguna restricción respecto a la granularidad del componente, de
esta forma un componente podrá ser tan simple como un convertidor de moneda o
tan complejo como un sistema de ayuda semántico.
Según el WCOP[editar]
Fruto del primer Workshop Component Oriented Programming (WCOP) o "Taller
sobre Programación Orientada a Componentes" realizado en 1996, se acuñó la
definición: unidad de composición con interfaces especificadas contractualmente,
con dependencias explícitas de acuerdo al contexto antes dicho. Un componente
de software puede ser desplegado de forma independiente y puede participar en
composiciones de terceras partes.
Características[editar]
Un componente de software debe poseer las siguientes características:
Ser reutilizable.
Ser intercambiable.
Poseer interfaces definidas.
Ser cohesivos.
Implementaciones[editar]
Los componentes de software son la piedra angular de diferentes paradigmas de
programación. Esto ha generado la aparición en el mercado de diferentes
especificaciones que plantean la forma de construir, utilizar y distribuir
componentes. Entre las más extendidas se encuentran:
Estándares[editar]
CORBA (Common Object Request Broker Architecture) del Object
Management Group (OMG).
JavaBean, Servlets y Enterprise JavaBeans de Oracle.
OSGi (Open Services Gateway Initiative) de OSGi Alliance.
Component Object Model (COM), COM+ y Distributed Component Object
Model (DCOM) de Microsoft.
Paradigmas[editar]
Los componentes de software son útiles en:
Programación Orientada a Componentes (POC)
Programación Orientada a Objetos (POO)
Arquitectura Orientada a Servicios (SOA)2
Hardware
Ir a la navegaciónIr a la búsqueda
Hardware principal de una computadora personal:
1. Monitor.
2. Placa principal.
3. Microprocesador (CPU) y zócalo.
4. Un módulo de RAM y tres ranuras.
5. Tarjetas y ranuras de expansión.
6. Fuente de alimentación.
7. Unidad de disco óptico (CD; DVD; BD).
8. Unidad de disco duro o unidad de estado sólido.
9. Teclado.
10. Ratón.
El hardware (pronunciado [[Link]]), equipo o soporte físico1 en informática se
refiere a las partes físicas, tangibles, de un sistema informático, sus componentes
eléctricos, electrónicos, electromecánicos y mecánicos.2 Los cables, así como los
muebles o cajas, los periféricos de todo tipo, y cualquier otro elemento físico
involucrado, componen el hardware o soporte físico; contrariamente, el soporte
lógico e intangible es el llamado software.
El término es propio del idioma inglés, y su traducción al español no tiene un
significado acorde, por tal motivo se lo ha adoptado tal cual es y suena. La Real
Academia Española lo define como «Conjunto de los componentes que integran la
parte material de una computadora».3 El término, aunque sea lo más común, no
solamente se aplica a las computadoras, también es a menudo utilizado en otras
áreas de la vida diaria y la tecnología. Por ejemplo, hardware también se refiere a
herramientas y máquinas, y en electrónica hardware se refiere a todos los
componentes electrónicos, eléctricos, electromecánicos, mecánicos, cableados y
tarjetas de circuitos impresos.
Otros ejemplos donde se aplica el término hardware son, en relación a los robots,4
5
así como en relación a los teléfonos móviles, las cámaras fotográficas,
los reproductores digitales, o cualquier otro dispositivo electrónico. Cuando dichos
dispositivos también procesan datos, poseen firmware y/o software además
de hardware.
La historia del hardware de computador se puede clasificar en cuatro
generaciones, cada una caracterizada por un cambio tecnológico de importancia.
Una primera delimitación podría hacerse entre hardware principal (véase figura),
como el estrictamente necesario para el funcionamiento normal del equipo, y el
«complementario», como el que realiza funciones específicas.
El hardware principal de un computador se compone de una unidad central de
procesamiento (CPU), encargada de procesar los datos; una memoria rápida de
trabajo para almacenamiento temporal; una unidad de almacenamiento fija para
mantener software y datos así como extraerlos de ella; uno o varios periféricos de
entrada, los que permiten el ingreso de la información y uno o varios periféricos de
salida, que posibilitan dar salida (normalmente en forma visual, impresa o auditiva)
a los datos procesados.
Índice
1Historia
2Clasificación del hardware
o 2.1Unidad central de procesamiento
o 2.2Placa base
o 2.3Memoria RAM
2.3.1Memoria RAM dinámica
2.3.2Memorias RAM especiales
o 2.4Periféricos
2.4.1Dispositivos de entrada de información (E)
2.4.2Dispositivos de salida de información (S)
2.4.3Dispositivos mixtos (E/S de información)
o 2.5Hardware gráfico
3Véase también
4Referencias
5Bibliografía
6Enlaces externos
Historia[editar]
Artículo principal: Historia del hardware
La clasificación evolucionista del hardware del computador electrónico está
dividida en generaciones, donde cada una supone un cambio tecnológico notable.
El origen de las primeras es sencillo de establecer, ya que en ellas el hardware
fue sufriendo cambios radicales.6 Los componentes esenciales que constituyen la
electrónica del computador fueron totalmente reemplazados en las primeras tres
generaciones, originando cambios que resultaron trascendentales. En las últimas
décadas es más difícil distinguir las nuevas generaciones, ya que los cambios han
sido graduales y existe cierta continuidad en las tecnologías usadas. En principio,
se pueden distinguir:
1.ª generación (1945-1956): electrónica implementada con tubos de vacío.
Fueron las primeras máquinas que desplazaron los componentes
electromecánicos (relés).
2.ª generación (1957-1963): electrónica desarrollada con transistores. La
lógica discreta era muy parecida a la anterior, pero la implementación resultó
mucho más pequeña, reduciendo, entre otros factores, el tamaño de un
computador en notable escala.
3.ª generación (1964-hoy): electrónica basada en circuitos integrados. Esta
tecnología permitió integrar cientos de transistores y otros componentes
electrónicos en un único circuito integrado impreso en una pastilla de silicio.
Las computadoras redujeron así considerablemente su costo, consumo y
tamaño, incrementándose su capacidad, velocidad y fiabilidad, hasta producir
máquinas como las que existen en la actualidad.
4.ª generación (futuro): probablemente se originará cuando los circuitos de
silicio, integrados a alta escala, sean reemplazados por un nuevo tipo de
material o tecnología.78
La aparición del microprocesador marca un hito de relevancia, y para muchos
autores constituye el inicio de la cuarta generación. 9 A diferencia de los cambios
tecnológicos anteriores, su invención no supuso la desaparición radical de los
computadores que no lo utilizaban. Así, aunque el microprocesador 4004 fue
lanzado al mercado en 1971, todavía a comienzo de la década de 1980 había
computadores, como el PDP-11/44,10 con lógica carente de microprocesador que
continuaban exitosamente en el mercado; es decir, en este caso el
desplazamiento ha sido muy gradual.
Otro hito tecnológico usado con frecuencia para definir el inicio de la cuarta
generación es la aparición de los circuitos integrados VLSI (very large scale
integration), a principios de los ochenta. Al igual que el microprocesador, no
supuso el cambio inmediato y la rápida desaparición de los computadores
basados en circuitos integrados en más bajas escalas de integración. Muchos
equipos implementados con tecnologías VLSI y MSI (medium scale integration)
aún coexistían exitosamente hasta bien entrados la década de 1990.
Clasificación del hardware[editar]
Microcontrolador Motorola 68HC11 y chips de soporte que podrían constituir el hardware de un equipo
electrónico industrial.
Una de las formas de clasificar el hardware es en dos categorías: por un lado,
el hardware principal, que abarca el conjunto de componentes indispensables
necesarios para otorgar la funcionalidad mínima a una computadora; y por otro
lado, el hardware complementario, que, como su nombre indica, es el utilizado
para realizar funciones específicas (más allá de las básicas), no estrictamente
necesarias para el funcionamiento de la computadora.
EL hardware principal está básicamente constituido por: un medio de entrada de
datos, la unidad central de procesamiento, la memoria RAM, un medio de salida
de datos y un medio de almacenamiento de datos.
Los medios de entrada y salida de datos estrictamente indispensables dependen
de la aplicación: desde el punto de vista de un usuario común, se debería
disponer, al menos, de un teclado y un monitor para entrada y salida de
información, respectivamente; pero ello no implica que no pueda haber una
computadora (por ejemplo controlando un proceso) en la que no sea necesario
teclado y/o monitor; bien puede ingresar información y sacar sus datos
procesados, por ejemplo, a través de una placa de adquisición/salida de datos.
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar
instrucciones programadas y almacenadas en su memoria; consisten básicamente
en operaciones aritmético-lógicas y de entrada/salida.11 Se reciben las entradas
(datos), se las procesa y almacena (procesamiento), y finalmente se producen las
salidas (resultados del procesamiento). Por ello todo sistema informático tiene, al
menos, componentes y dispositivos hardware dedicados a alguna de las funciones
antedichas;12 a saber:
1. Procesamiento: unidad central de procesamiento
2. Almacenamiento: Memorias
3. Entrada: Periféricos de entrada (E)
4. Salida: Periféricos de salida (S)
5. Entrada/Salida: Periféricos mixtos (E/S)
Desde un punto de vista básico y general, un dispositivo de entrada es el que
provee el medio para permitir el ingreso de información, datos
y programas (lectura); un dispositivo de salida brinda el medio para registrar la
información y datos de salida (escritura); la memoria otorga la capacidad de
almacenamiento, temporal o permanente (almacenamiento); y la CPU provee la
capacidad de cálculo y procesamiento de la información ingresada
(transformación).13
Un periférico mixto es aquel que puede cumplir funciones tanto de entrada como
de salida; el ejemplo más típico es el disco rígido o bien de estado sólido SSD (ya
que en él se lee y se graba información y datos).
Unidad central de procesamiento[editar]
Artículo principal: CPU
Procesador de 8 núcleos AMD Ryzen 7 1800X en el zócalo de una placa base
La Unidad Central de Procesamiento, conocida por las siglas en inglés CPU, es el
componente fundamental de la computadora, encargado de interpretar y ejecutar
instrucciones y de procesar datos.14 En computadores modernos, la función de la
CPU la realiza uno o más microprocesadores. Se conoce como microprocesador a
una CPU que es manufacturada como un único circuito integrado.
Un servidor de red o una máquina de cálculo de alto rendimiento
(supercomputación), puede tener varios, incluso miles de microprocesadores
trabajando simultáneamente o en paralelo (multiprocesamiento); en este caso,
todo ese conjunto conforma la CPU de la máquina.
Las unidades centrales de proceso (CPU) en la forma de un único
microprocesador no solo están presentes en las computadoras personales (PC),
sino también en otros tipos de dispositivos que incorporan una cierta capacidad de
proceso o «inteligencia electrónica», como pueden ser: controladores de procesos
industriales, televisores, automóviles, calculadoras, aviones, teléfonos móviles,
electrodomésticos, juguetes y muchos más. Actualmente los diseñadores y
fabricantes más populares de microprocesadores de PC son Intel y AMD; y para el
mercado de dispositivos móviles y de muy bajo consumo, los principales
son Samsung, Qualcomm, Texas Instruments, MediaTek, NVIDIA e Intel.
Placa base de una computadora, formato µATX.
Placa base del teléfono móvil Samsung Galaxy Spica, se pueden distinguir varios «System-on-a-Chip»
soldados en ella.
En las computadoras, el microprocesador se monta en la llamada placa base,
sobre un zócalo conocido como zócalo de CPU, que permite las conexiones
eléctricas entre los circuitos de la placa y el procesador. Sobre el procesador
ajustado a la placa base se fija un disipador térmico de un material con
elevada conductividad térmica, que por lo general es de aluminio, y en algunos
casos de cobre. Este es indispensable en los microprocesadores que consumen
bastante energía, la cual, en gran parte, es emitida en forma de calor: en algunos
casos pueden consumir tanta energía como una lámpara incandescente (de 40 a
130 vatios).
En equipos de alto rendimiento, adicionalmente, sobre el disipador se acopla uno
o dos ventiladores (raramente más), destinados a forzar la circulación de aire para
extraer más rápidamente el calor acumulado por el disipador y originado en el
microprocesador. Complementariamente, para evitar daños por efectos térmicos,
también se suelen instalar sensores de temperatura del microprocesador y
sensores de revoluciones del ventilador, así como sistemas automáticos que
controlan la cantidad de revoluciones por unidad de tiempo de estos últimos.
La gran mayoría de los circuitos electrónicos e integrados que componen
el hardware del computador van montados en la placa madre.
Placa base[editar]
Artículo principal: Placa base
La placa base, también conocida como placa madre o principal es un gran circuito
impreso sobre el que se suelda el chipset, las ranuras de expansión (slots), los
zócalos, conectores, diversos circuitos integrados, etc. Es el soporte fundamental
que aloja y comunica a todos los demás componentes: microprocesador, módulos
de memoria RAM, tarjetas gráficas, tarjetas de expansión, periféricos de entrada y
salida. Para comunicar esos componentes, la placa base posee una serie
de buses mediante los cuales se transmiten los datos hacia dentro y fuera del
sistema.
La tendencia de integración ha hecho que la placa base se convierta en un
elemento que incluye a la mayoría de las funciones básicas (vídeo, audio,
red, puertos de varios tipos), funciones que antes se realizaban con tarjetas de
expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas
adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición
de datos, etc.
También, la tendencia en los últimos años es eliminar elementos separados en
la placa base e integrarlos al microprocesador. En ese sentido actualmente se
encuentran sistemas denominados System on a Chip que consiste en un único
circuito integrado que integra varios módulos electrónicos en su interior, tales
como un procesador, un controlador de memoria, una GPU, Wi-Fi, Bluetooth, etc.
La mejora más notable en esto está en la reducción de tamaño frente a igual
funcionalidad con módulos electrónicos separados. Las figuras muestran
aplicaciones típicas, placa principal de una computadora y la de un teléfono móvil.
Las principales funciones que presenta una placa base son:
Conexión física
Administración, control y distribución de energía eléctrica
Comunicación de datos
Temporización
Sincronismo
Control y monitoreo
Memoria RAM[editar]
Módulos de memoria RAM instalados
Artículo principal: Memoria RAM
La sigla RAM, del inglés Random Access Memory, literalmente
significa memoria de acceso aleatorio. El término tiene relación con la
característica de presentar iguales tiempos de acceso a cualquiera de sus
posiciones (ya sea para lectura o para escritura). Esta particularidad también se
conoce como «acceso directo», en contraposición al acceso secuencial.
La RAM es la memoria utilizada en una computadora para el almacenamiento
transitorio y de trabajo (no masivo). En la RAM se almacena temporalmente la
información, datos y programas que la Unidad de Procesamiento (CPU) lee,
procesa y ejecuta. La memoria RAM es conocida como memoria principal de la
computadora, también como memoria central o de «trabajo»;15 a diferencia de las
llamadas memorias auxiliares, secundarias o de almacenamiento masivo (como
discos duros, unidades de estado sólido, cintas magnéticas u otras memorias).
Las RAM son, comúnmente, memorias volátiles; lo cual significa que pierden
rápidamente su contenido al interrumpir su alimentación eléctrica.
Las más comunes y utilizadas como memoria central son «dinámicas» (DRAM), lo
cual significa que tienden a perder sus datos almacenados en breve tiempo (por
descarga capacitiva, aun estando con alimentación eléctrica), por ello necesitan un
circuito electrónico específico que se encarga de proveerle el llamado «refresco»
(de energía) para mantener su información.
La memoria RAM de un computador se provee de fábrica e instala en lo que se
conoce como «módulos». Ellos albergan varios circuitos integrados de
memoria DRAM que, conjuntamente, conforman toda la memoria principal.
Memoria RAM dinámica[editar]
Es la presentación más común en computadores modernos (computador
personal, servidor); son tarjetas de circuito impreso que tienen soldados circuitos
integrados de memoria por una o ambas caras, además de otros elementos, tales
como resistores y condensadores. Esta tarjeta posee una serie de contactos
metálicos,con recubrimiento de oro, que permite hacer la conexión eléctrica con
el bus de memoria del controlador de memoria en la placa base.
Los integrados son de tipo DRAM, memoria denominada «dinámica», en la cual
las celdas de memoria son muy sencillas (un transistor y un condensador),
permitiendo la fabricación de memorias con gran capacidad (típicamente de 2, 4, 8
o 16 Gigabytes por módulo) a un costo relativamente bajo.
Las posiciones de memoria o celdas, están organizadas en matrices y almacenan
cada una un bit. Para acceder a ellas se han ideado varios métodos y protocolos,
cada uno mejorado con el objetivo de acceder a las celdas requeridas de la
manera más eficiente posible.
Memorias RAM con tecnologías usadas en la actualidad.
Entre las tecnologías recientes para integrados de memoria DRAM usados en los
módulos RAM se encuentran:
SDR SDRAM: memoria de un ciclo sencillo de acceso por ciclo de reloj.
Actualmente en desuso, fue popular en los equipos basados en el Pentium III y
los primeros Pentium 4.
DDR SDRAM: se caracterizan por ser capaces de llevar a cabo dos
operaciones en cada ciclo de reloj (ciclo doble), es decir un acceso anticipado
a dos posiciones de memoria consecutivas. Fue popular en equipos basados
en los procesadores Pentium 4 y Athlon 64.
DDR2 SDRAM: Memoria con un ciclo doble y acceso anticipado a cuatro
posiciones de memoria consecutivas, está en desuso.
DDR3 SDRAM: memoria con un ciclo doble y acceso anticipado a ocho
posiciones de memoria consecutivas. Es un tipo de memoria aun actual,
reemplazó a su predecesora, la DDR2.
DDR4 SDRAM: es la evolución del estándar DDR3 y, por tanto, los módulos de
memoria compatibles con esta tecnología son capaces de trabajar a una
frecuencia de reloj más alta. Los módulos DDR4 SDRAM tienen un total de
288 pines DIMM. La velocidad de datos por pin, va de un mínimo de
1,6 GT/s hasta un objetivo máximo inicial de 3,2 GT/s. Las memorias DDR4
SDRAM tienen un mayor rendimiento y menor consumo energético que las
memorias DDR3 predecesoras. Tienen una tasa de
transferencia y capacidad mucho más elevada en comparación con sus
versiones anteriores.
Los estándares JEDEC, establecen las características eléctricas y las físicas de
los módulos, incluyendo las dimensiones del circuito impreso.
Los estándares usados son:16
DIMM: tiene presentaciones de 168 pines (usadas con SDR y otras
tecnologías antiguas), 184 pines (usadas con DDR y el obsoleto SIMM), 240
(para las tecnologías de memoria DDR2 y DDR3) y 288 pines para las actuales
DDR4.
SO-DIMM: es formato para computadores portátiles, es una miniaturización de
la versión DIMM en cada tecnología. Existen de 144 pines, usadas con SDR,
de 200 pines, usadas con DDR y DDR2, de 240 pines para DDR3 y de 260
pines para DDR4.
Memorias RAM especiales[editar]
Hay memorias RAM con características que las hacen particulares, y que
normalmente no se utilizan como memoria central de la computadora; entre ellas
se puede mencionar:
SRAM: Siglas de Static Random Access Memory. Es un tipo de memoria más
rápida que la DRAM (Dynamic RAM). El término «estática» deriva del hecho
que no necesita el refresco para mantener sus datos. Si bien esta RAM no
requiere circuito de refresco, ocupa más espacio y utiliza más energía que la
DRAM. Este tipo de memoria, debido a su alta velocidad, es usada como
memoria caché.
NVRAM: Siglas de Non-Volatile Random Access Memory. Memoria RAM no
volátil (mantiene la información en ausencia de alimentación eléctrica). Hoy en
día, la mayoría de memorias NVRAM son memorias flash, muy usadas para
teléfonos móviles, reproductores portátiles de MP3, pendrives, etc.
VRAM: Siglas de Video Random Access Memory. Es un tipo de memoria RAM
que se utiliza en las tarjetas gráficas del computador. La característica
particular de esta clase de memoria es que es accesible de forma simultánea
por dos dispositivos. Así, es posible que la CPU grabe información en ella, al
tiempo que se leen los datos que serán visualizados en el Monitor de
computadora.
De las anteriores a su vez, hay otros subtipos más.
Periféricos[editar]
Artículo principal: Periféricos
Se entiende por periférico a las unidades o dispositivos que permiten a
la computadora comunicarse con el exterior, esto es, tanto ingresar como
exteriorizar información y datos.12 Los periféricos son los que permiten realizar las
operaciones conocidas como de entrada/salida (E/S).13
Aunque son estrictamente considerados «accesorios», muchos de ellos son
fundamentales para el funcionamiento y operación adecuados de la computadora
moderna; por ejemplo, el teclado, el ratón, el disco duro y el monitor son
elementos actualmente imprescindibles; pero no lo son, por ejemplo, un escáner o
un plóter. Para ilustrar este punto: en los años 80, muchas las computadoras
personales no utilizaban disco duro ni mouse (o ratón), eran normalmente
operativas con sólo una o dos disqueteras, el teclado y el monitor como únicos
periféricos (incluso sin disquetera).
Dispositivos de entrada de información (E)[editar]
Teclado para PC inalámbrico.
Ratón (Mouse) común alámbrico.
De esta categoría son aquellos que permiten el ingreso de información, en general
desde alguna fuente externa o por parte del usuario. Los dispositivos de entrada
proveen el medio fundamental para transferir hacia la computadora (más
propiamente al procesador) información desde alguna fuente, sea local o remota.
También permiten cumplir la esencial tarea de leer y cargar en memoria el sistema
operativo y las aplicaciones o programas informáticos, los que a su vez ponen
operativa la computadora y hacen posible realizar las más diversas tareas. 13
Entre los periféricos de entrada se puede mencionar:12 teclado, mouse o
ratón, escáner, micrófono, cámara web, lectores ópticos de código de
barras, Joystick, lectora de CD, DVD o BluRay (solo lectoras), placas de
adquisición/conversión de datos, etc.
Pueden considerarse como imprescindibles para el funcionamiento, (de manera
como hoy se concibe la informática) al teclado, al ratón y algún dispositivo lector
de discos; ya que tan sólo con ellos el hardware puede ponerse operativo para un
usuario. Los otros son más bien accesorios, aunque en la actualidad pueden
resultar de tanta necesidad que son considerados parte esencial de todo
el sistema.
Impresora de inyección de tinta.
Dispositivos de salida de información (S)[editar]
Son aquellos que permiten emitir o dar salida a la información resultante de las
operaciones realizadas por la CPU (procesamiento).
Los dispositivos de salida aportan el medio fundamental para exteriorizar y
comunicar la información y datos procesados; ya sea al usuario o bien a otra
fuente externa, local o remota.13
Los dispositivos más comunes de este grupo son los monitores clásicos (no de
pantalla táctil), las impresoras, las consolas. y los altavoces.12
Entre los periféricos de salida puede considerarse al monitor como imprescindible
para el funcionamiento del sistema. Otros, aunque accesorios, son sumamente
necesarios para un usuario que opere un computador moderno, por ejemplo, la
impresora o los parlantes.
Dispositivos mixtos (E/S de información)[editar]
Piezas de un disco duro
Son aquellos dispositivos que pueden operar de ambas formas: tanto de entrada
como de salida.13 Típicamente, se puede mencionar como periféricos mixtos o
de entrada/salida a: discos rígidos, disquetes, unidades de cinta magnética, lecto-
grabadoras de CD/DVD, discos ZIP, etc. También entran en este rango, con sutil
diferencia, otras unidades, tales como: Tarjetas de Memoria flash o unidad de
estado sólido, tarjetas de red, módems, tarjetas de captura/salida de vídeo, etc.12
Si bien se puede clasificar al pendrive (lápiz de memoria), memoria
flash o memoria USB o a las unidades de estado sólido (SSD) en la categoría
de memorias, normalmente se los utiliza como dispositivos de almacenamiento
masivo; siendo todos de categoría Entrada/Salida. 17
Los dispositivos de almacenamiento masivo12 también son conocidos como
«memorias secundarias o auxiliares». Entre ellos, sin duda, el disco duro ocupa un
lugar especial, ya que es el de mayor importancia en la actualidad, en el que se
aloja el sistema operativo, todas las aplicaciones, utilitarios, etc. que utiliza el
usuario; además de tener la suficiente capacidad para albergar información y
datos en grandes volúmenes por tiempo prácticamente indefinido. Los
servidores Web, de correo electrónico y de redes con bases de datos,
utilizan discos rígidos de grandes capacidades y con una tecnología que les
permite trabajar a altas velocidades como SCSI incluyendo también, normalmente,
capacidad de redundancia de datos, RAID; incluso se utilizan tecnologías híbridas:
disco rígido con unidad de estado sólido, lo que incrementa notablemente su
eficiencia. Las interfaces actuales más usadas en discos duros
son: IDE, SATA, SCSI y SAS; y en las unidades de estado sólido son SATA y PCI-
Express ya que necesitan grandes anchos de banda.
La pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto,
ya que además de mostrar información y datos (salida) puede actuar como un
dispositivo de entrada, reemplazando, por ejemplo, a algunas funciones del ratón
o del teclado.
Hardware gráfico[editar]
GPU de Nvidia GeForce
Artículo principal: Tarjeta gráfica
El hardware gráfico lo constituyen básicamente las tarjetas gráficas. Dichos
componentes disponen de su propia memoria y unidad de procesamiento, esta
última llamada unidad de procesamiento gráfico (o GPU, siglas en inglés
de Graphics Processing Unit). El objetivo básico de la GPU es realizar los cálculos
asociados a operaciones gráficas, fundamentalmente en coma flotante,18 liberando
así al procesador principal (CPU) de esa costosa tarea (en tiempo) para que este
pueda efectuar otras funciones en forma más eficiente. Antes de esas tarjetas de
vídeo con aceleradores por hardware, era el procesador principal el encargado de
construir la imagen mientras la sección de vídeo (sea tarjeta o de la placa base)
era simplemente un traductor de las señales binarias a las señales requeridas por
el monitor; y buena parte de la memoria principal (RAM) de la computadora
también era utilizada para estos fines.
Dentro de esta categoría no se deben omitir los sistemas gráficos integrados
(IGP), presentes mayoritariamente en equipos portátiles o en equipos
prefabricados (OEM), los cuales generalmente, a diferencia de las tarjetas
gráficas, no disponen de una memoria dedicada, utilizando para su función la
memoria principal del sistema. La tendencia en los últimos años es integrar los
sistemas gráficos dentro del propio procesador central. Los procesadores gráficos
integrados (IGP) generalmente son de un rendimiento y consumo notablemente
más bajo que las GPU de las tarjetas gráficas dedicadas, no obstante, son más
que suficiente para cubrir las necesidades de la mayoría de los usuarios de un PC.
Actualmente se están empezando a utilizar las tarjetas gráficas con propósitos no
exclusivamente gráficos, ya que en potencia de cálculo la GPU es superior, más
rápida y eficiente que el procesador para operaciones en coma flotante, por ello se
está tratando de aprovecharla para propósitos generales, al concepto,
relativamente reciente, se le denomina GPGPU (General-Purpose Computing on
Graphics Processing Units).
La ley de Moore establece que cada 18 a 24 meses la cantidad de transistores
que puede contener un circuito integrado se logra duplicar; en el caso de los GPU
esta tendencia es bastante más notable, duplicando, o aún más, lo indicado en la
ley de Moore.19
Desde la década de 1990, la evolución en el procesamiento gráfico ha tenido un
crecimiento vertiginoso; las actuales animaciones por computadoras y videojuegos
eran impensables veinte años atrás.
Véase también[editar]
Portal:Informática. Contenido relacionado con Informática.
Historia del hardware
Arquitectura de computadoras
Arquitectura de von Neumann
Hardware libre
Hardware de red
Software
Humanware
Hardware
Monitor.
Placa principal.
Microprocesador (CPU) y zócalo.
Un módulo de RAM y tres ranuras.
Tarjetas y ranuras de expansión.
Fuente de alimentación.
Unidad de disco óptico (CD; DVD; BD).
Unidad de disco duro o unidad de estado sólido.
Componentes hardware: todo lo
que necesitas saber
Alejandro A. Lázaro9 noviembre, 2019
22 minutos de lectura aproximada.
Los componentes hardware es el conjunto de elementos físicos que conforman el
ordenador. Desde la caja hasta la placa base, pasando por todos los periféricos
externos para aplicaciones especiales.
En este documento estudiamos cada componente aportando consideraciones sobre
sus especificaciones y prestaciones, y cómo estas influyen en el funcionamiento y
rendimiento del sistema informático.
Índice de contenidos
Componentes hardware principales para aplicaciones generales
o Componentes hardware: unidades de procesamiento
o CPU o unidad central de procesamiento
o Circuito integrado auxiliar
o Memoria ROM
o Unidades de almacenamiento en componentes hardware
o Memoria RAM
o Unidades de almacenamiento físico
Componentes hardware de periféricos de entrada
o Teclado
Componentes hardware enfocados a los dispositivos apuntadores
o Ratón
o Touchpads
o Pantalla táctil
o Dispositivos de salida
Componentes hardware complementario para aplicaciones comunes
Unidades de procesamiento en componentes hardware
o GPU o unidad de procesamiento gráfico
o NIC o tarjeta de red
Unidades de almacenamiento
o Unidades de lectura óptica
o Unidades de almacenamiento externo
o Periféricos de salida, entrada y E/S
o Auriculares
o Impresoras
Palabras finales y conclusiones acerca de los componentes hardware
Componentes hardware principales para
aplicaciones generales
Se entiende como hardware principal el conjunto mínimo de componentes que
dotan al sistema de operatividad. La operatividad es subjetiva y depende de la
aplicación de cada equipo, pero refiriéndonos a usos de ámbito general, podemos
incluir dentro de este segmento los siguientes subgrupos:
Unidades de procesamiento
Unidades de almacenamiento
Periféricos de entrada
Periféricos de salida
Periféricos mixtos
Cada uno de estos está compuesto a su vez por varias unidades diferenciadas.
Componentes hardware: unidades de procesamiento
La placa base; y más concretamente CPU, circuito integrado auxiliar, memoria ROM,
buses de conexión y batería CMOS, conforman las unidades de procesamiento
indispensables para el correcto funcionamiento de cualquier ordenador.
CPU o unidad central de procesamiento
La CPU, también conocida como unidad central de procesamiento, es el elemento
encargado de interpretar las instrucciones del software. De él depende la potencia
de computación de nuestro ordenador.
Desde su concepción, no todas las CPU son iguales. Los materiales y procesos que se
empleen para fabricar estos elementos tienen un efecto decisivo sobre el rendimiento
de los microprocesadores.
La producción a bajo coste suele implicar la utilización de pastas térmicas, aislantes
plásticos y aleaciones para pines o soldaduras de peor calidad; un ahorro que va en
detrimento de la calidad, durabilidad y fiabilidad de la CPU. En resumen, el empleo
de materiales subóptimos reduce la esperanza de vida de la pieza. Esto puede derivar
en problemas como:
Cuellos de botella al interactuar con otros componentes
Incapacidad de operar a capacidad máxima
Mayores probabilidades de fallo al someterse a sobre-esfuerzos térmicos o de
computación
Fallo temprano del componente
Al estudiar qué CPU se adapta mejor a nuestras necesidades, otra característica de vital
importancia es la frecuencia de reloj. Esta especificación limita el número de
operaciones por segundo que el ordenador podrá acometer.
Las CPU de gama alta actuales tienen frecuencias de reloj de entre 3.5 y 3.8 GHz.
Mediante la práctica conocida como overclocking se pueden rebasar los 4.5 GHz, pero
no todas las CPU permiten esta técnica. Las especificaciones de los fabricantes indican
qué modelos aceptan overclocking y cuáles no.
En las unidades de procesamiento antiguas la frecuencia de reloj estaba estrechamente
ligada a la potencia de computación, en la actualidad otras dos características de la
CPU influyen sobre la verdadera capacidad del sistema.
Hablamos del número de núcleos y los hilos de procesamiento o threads. Los
núcleos actúan como subprocesadores: cooperan para dividir las tareas en las que
trabaja el ordenador. Los hilos optimizan los tiempos de espera entre operaciones de
una misma tarea. En un ordenador orientado a multitasking los procesadores
multinúcleo cobran mayor relevancia, mientras que en aplicaciones de computación
bruta el multithread es la opción preferida.
Las CPU nivel usuario disponibles en el mercado cuentan con 4 a 16 núcleos (nuevos
modelos veremos próximamente), habiendo modelos monohílo y multithread.
Otro aspecto importante de la unidad central de procesamiento es la memoria interna.
Aunque la CPU toma instrucciones directamente de la memoria RAM, cuenta también
con memoria caché. La memoria caché el tiempo y energía invertidos en la lectura y
escritura de información que se necesita de forma reiterada. Cuanto mayor sea la
memoria caché disponible, mejor será el rendimiento de la unidad.
Las CPU modernas suelen tener su memoria caché divida por niveles
jerarquizados. El nivel básico o L1 está asociado a un núcleo particular; los niveles L2 y
superiores pueden atender a todos los subprocesadores o a algunos de ellos. El
funcionamiento real depende de la topología de las memorias. El nivel superior (o
externo) siempre interactúa con todos los núcleos, mientras que los niveles inferiores
están vinculados a núcleos individuales o grupos de núcleos.
L3 es el estándar actual en equipos de venta al público, pero la caché de CPU L4 es
también una realidad. Además existen cachés especiales más o menos apropiadas
según la aplicación: WCC, UC, caché inteligente, etcétera.
Otro aspecto relevante de las CPU es el tamaño de palabra. El tamaño de palabra
dimensiona la longitud máxima de las instrucciones que la CPU puede recibir
desde la memoria RAM. Cuanto mayor, mejor.
Finalmente, es interesante conocer cuál es la potencia demandada por la unidad de
procesamiento central. En aplicaciones especiales el consumo puede ser uno de los
factores decisivos a la hora de elegir una u otra CPU: en centros de computación
pequeñas diferencias de consumo pueden repercutir en rendimientos económicos muy
divergentes.
Atendiendo al aspecto eléctrico de la unidad, merece la pena conocer también la
eficiencia con la que se usa la energía recibida. Eficiencias bajas apuntan a grandes
pérdidas por calor, las cuales obligan al uso de mejores sistemas de refrigeración en el
equipo. Recordemos que el funcionamiento óptimo de las CPU se da en el intervalo
térmico de 30 a 50 grados Celsius, aunque la mayoría de equipos toleran hasta 80ºC
sin cambios acusados en su rendimiento.
Circuito integrado auxiliar
El circuito integrado auxiliar está compuesto por una serie de chips
especializados para aplicaciones de audio, vídeo y control. Antiguamente estaba
conformado por más de una docena de pequeños chips, pero en la actualidad su
arquitectura ha sido profundamente simplificada, existiendo tres bloques bien
diferenciados: el puente norte, el puente sur y la conexión entre puentes.
El chip que conforma el puente norte también es conocido como northbridge, Memory
Controller Hub (MCH) o concentrador controlador de memoria. Le corresponden las
tareas de control sobre la memoria, el PCI Express y el bus AGP, así como servir de
interfaz de transmisión de datos con el chip del puente sur.
Las CPU modernas de Intel incluyen las funciones de control de memoria y PCI Express,
el puente norte es innecesario pues. En AMD existe northbridge, pero este solo se
encarga de controlar el AGP o PCI Express; los controladores de memoria se integran
en el procesador. Los chipsets más antiguos disponen de una arquitectura aún más
ineficiente en la que se usan diversos buses para controlar la RAM y la tarjeta gráfica.
Es importante conocer la estructura del puente norte, el número de carriles punto a
punto del PCIe (x1, x4, x8, x16 y x32 son los habituales) y la velocidad de transferencia
de la conexión antes de adquirir el chipset.
El estándar PCI-SIG asocia cada denominación con un ancho de banda único facilita
conocer las especificaciones del componente. La primera generación de PCI Express, el
PCIe 1.0 aparecido en 2003, presenta velocidades de transferencia de datos de 2.5
GT/s; el PCIe 5.0 lanzado este mismo año alcanza las 32 GT/s.
Para elegir un conector PCIe es necesario conocer qué uso se le va a dar. La siguiente
lista da una idea generalizada de los carriles requeridos por diferentes componentes
de hardware:
1 carril: controladores de red, audio, conectores USB hasta 3.1 Gen. 1.
2 carriles: USB 3.1 Gen. 2 y superiores, unidades SSD.
4 carriles: controladores RAID basados en firmware, aplicaciones Thunderbolt, tarjetas
de expansión M.2 (antiguas NGFF).
8 o 16 carriles: tarjetas PCIe especializadas, tarjetas gráficas.
El número de carriles totales del circuito integrado auxiliar o CPU es relevante cuando
se espera que el número de componentes conectados sea alto. Los modelos de alta
gama actuales cuentan con hasta 128 carriles.
Regresando al esquema general del chipset, otro de los bloques básicos que lo
conforman es el puente sur. Este se conoce también como southbridge, I/O Controller
Hub (ICH), Platform Controller Hub (PCH), concentrador de controladores de entrada y
salida, o concentrador controlador de plataforma.
El puente sur controla los dispositivos de entrada y salida, así como los equipos
integrados de audio, red e imagen. A continuación figura el listado completo de
estos elementos:
Puertos de almacenamiento (SATA y paralelos)
Puertos USB
Audio integrado
Red de área local integrada
Bus PCI
Carriles PCI Express
Reloj en tiempo real RTC
Memoria CMOS o ROM: BIOS e interfaz de firmware extensible unificada (UEFI)
Chip Super I/O (para control de DMA, puertos PS/2 y otras tecnologías desfasadas)
Finalmente, el puente norte y el puente sur están unidos a través de una conexión
PCI conocida como inter-bridge. Si este elemento presenta mala velocidad de
transferencia formará un cuello de botella en el circuito integrado auxiliar.
Cada compañía de procesadores presenta una solución propia. En Intel existe una
conexión dedicada conocida como Direct Media Interface o DMI, similar a un PCIe full-
duplex. Alcanza un ancho de banda de 1 GB/s por dirección, o 10 Gbps entre los cuatro
carriles punto a punto que configuran el DMI. AMD emplea una ruta de información
conocida como A-Link con tres versiones: básica, II y III. Se trata de líneas PCIe 1.1 y 2.0
(para A-Link III) con cuatro carriles.
Memoria ROM
La memoria ROM o memoria de solo lectura es un elemento de hardware interno
que suele estar integrado en la placa base.
No se puede modificar (o al menos no de forma fácil) por lo que suele contener
el firmware que permite el funcionamiento del equipo. Su capacidad de
almacenamiento es limitada. Los equipos modernos cuentan con 4, 8 o 16 Mb,
suficiente para alojar el código del SMBIOS, responsable de inicializar procesos básicos
en el ordenador como activar el POST, detectar hardware, establecer el entorno básico
de ejecución o cargar rutas de memoria RAM prioritarias.
La ROM ha cambiado a lo largo del tiempo, desde ser una memoria inalterable
(MROM) hasta funcionar como una memoria flash. Los diferentes tipos de ROM
disponibles en la actualidad son:
Memoria programable de solo lectura (PROM) o programable una sola vez
(OTP). Reconfigurable con equipo especializado. Ofrece la mayor seguridad pues es
resistente a ataques rootkit.
Memoria de solo lectura programable y borrable (EPROM). Permite hasta 1000
ciclos de borrado y reescritura. Suelen equiparse con una etiqueta que las protege de
la luz ultravioleta (la UV borra la información).
Memoria de solo lectura programable y borrable eléctricamente (EEPROM). Las
más habituales en aplicaciones comerciales actuales. Son más lentas que las memorias
ROM tradicionales. La memoria flash es un tipo concreto de EEPROM más rápida y
resistente (soporta hasta un millón de ciclos de borrado y reescritura). Cabe
mencionar también el subtipo EAROM, lento pero más seguro.
Las principales especificaciones de las unidades de memoria RAM son: velocidad de
lectura, velocidad de escritura, resistencia y robustez del almacenamiento frente
a altas temperaturas y emisiones de radiación.
Unidades de almacenamiento en componentes hardware
Aunque la memoria ROM rara vez es tratada fuera del entorno del chipset, se podría
argumentar su inclusión dentro de este segmento. Hemos preferido no hacerlo para
proteger el protagonismo de las tarjetas de memoria RAM y las unidades de
almacenamiento físicas, bloques que investigamos en los siguientes apartados.
Memoria RAM
La memoria RAM o memoria de acceso aleatorio es un dispositivo de
almacenamiento que permite acelerar la velocidad de acceso y lectura de
información en uso. Minimizan el tiempo empleado para obtener los datos
requeridos.
La memoria RAM difiere de las unidades de almacenamiento físicas en que es volátil:
la memoria almacenada se pierde cuando se corta la alimentación.
Este hardware ha experimentado múltiples evoluciones desde su concepción en 1959
(transistor MOS, también conocido como MOSFET). Actualmente, la memoria RAM se
presenta en dos ramas principales: la SRAM o RAM estática y la DRAM o RAM
dinámica.
El primer grupo concluyó su evolución en 1995 con un dispositivo de 256 Mb
desarrollado por SK Hynix, por aquel entonces Hyundai Electronic Industrial. La DRAM
llegó hasta los 4 Gb en 2011 de la mano de Samsung, y luego derivó en nuevas
tecnologías como la RAM dinámica sincrónica o SDRAM que en sus tipos DDR2, DDR3,
LPDDR2, LPDDR3, LPDDR4 y LPDDR5 son ampliamente utilizados en la actualidad; o la
RAM gráfica sincrónica y la memoria de gran banda ancha (HBM y HBM2) que también
están vigentes.
Las diferentes tipologías poseen especificaciones muy diferentes que las hacen
incompatibles entre sí.
Las últimas novedades en materia de memoria RAM son los tipos GDDR5X y GDDR6, la
tecnología empleada en las aplicaciones Ray tracing de Nvidia.
Otra posible clasificación habla de memorias SIMM (Single In-line Memory Module) y
su evolución: las DIMM (Dual In-line Memory Module). Las tarjetas de memoria RAM
modernas se incluyen en esta última familia. Los portátiles suelen equiparse con
memorias de menor tamaño denominadas SO-DIMM (solo cambia el factor de forma,
no la tecnología).
Las especificaciones más importantes de la RAM son: capacidad, límite de capacidad
tolerado por el sistema operativo instalado, frecuencia y latencia.
La RAM limita la cantidad de procesos en marcha en el equipo. El sistema operativo
contiene una dirección conocida como espacio swap o de intercambio que puede venir
en forma de archivo o partición. Este elemento ayuda a gestionar los datos
procedentes de la RAM cuando la memoria de acceso aleatorio en uso está cerca de
ocuparse por completo. Este exceso de memoria RAM disponible se conoce como
RAM virtual; la denominación no debe llevar a engaño pues esta memoria está ubicada
en el SSD o HDD y no tiene las características definitorias de la RAM.
Cuando se excede la RAM disponible, este archivo aumenta su peso. Al rebasarse el
límite de peso definido aparecen errores. En general, operar con la memoria RAM al
límite ralentiza los procesos del ordenador y es poco recomendable, tanto desde
un punto de vista de rendimiento como de preservación del hardware.
Conviene saber también que la memoria que ha pasado por un periodo de inactividad
en la RAM puede estar comprimida. Este estado se conoce en algunas ocasiones
como ZRAM (Linux) o ZSWAP (Android). Esto evita la paginación en disco (con
velocidades de lectura y escritura mucho menores) y aumenta el rendimiento de la
RAM. Un uso optimizado de esta tecnología permite sacar el máximo provecho a la
RAM instalada sin necesidad de ampliar hardware.
Unidades de almacenamiento físico
Actualmente dentro de esta categoría solo se pueden considerar
como hardware principal los HDD o SSD sobre los que se instala el SO. Existen
también aplicaciones híbridas conocidas como discos duros híbridos o SSHD, pero su
uso no es generalizado.
Los HDD o unidades de disco duro son elementos de almacenamiento que emplean
un sistema de acumulación de datos electromagnético. La información se graba en un
disco giratorio conocido como plato gracias a la actuación del cabezal de escritura y
lectura.
La capacidad de los HDD es mayor que las de otros dispositivos de almacenamiento.
En la actualidad ya hay modelos de 20 terabytes, aunque son más comunes los de 4, 6
y 8 TB correspondientes a la generación anterior.
Aparte de la capacidad, hay otras características de los HDD que conviene conocer:
Índices de error y firmware de corrección. Cuanto más resistente sea el sistema a la
introducción de errores en los bits acumulados mayor fiabilidad presentará el
componente. Hoy muchos discos duros recurren a código para paliar los errores de
escritura. Así, se asigna una partición protegida del hardware para códigos de
corrección de errores (ECC), comprobaciones de paridad de baja densidad (LDPC)
o software privado de los fabricantes.
Velocidad rotacional. Mide el número de revoluciones por minuto del disco. Los
modelos modernos utilizan motores de hasta 7200 rpm. A mayor velocidad rotacional;
mayor velocidad de lectura y escritura, consumo eléctrico, ruido producido y desgaste
físico.
Tiempo de búsqueda, latencia rotacional y velocidad de transmisión de datos.
Afectan a la velocidad de lectura y escritura. Los dos primeros son impedimentos
físicos de la estructura de la unidad de disco duro; dependen de la posición de los
platos que se deseen leer y de la ubicación del cabezal de lectura y escritura. La
velocidad de transmisión de datos actúa como cuello de botella cuando los
conectores son inadecuados.
Factor de forma. Se trata de una relación del tamaño de la envolvente del HDD.
Hemos de elegir un factor de forma que se pueda acoplar sin problemas en nuestra
torre o portátil.
Interfaces de conexión y buses. Los buses empleados por las computadoras
contemporáneas son del tipo ATA, Serial ATA (SATA), SCI, Serial Attached SCI
(conocido más comúnmente como SAS) y canal de fibra o FC.
Equipo auxiliar. Son componentes que forman parte inseparable del HDD: sensores
de temperatura, filtros, adaptaciones para atmósferas exigentes…
Los HDD se han venido usando en ordenadores de sobremesa, portátiles y electrónica
de consumo no solo para acumular información, sino también para instalar el sistema
operativo y el software que se usa de forma cotidiana. No obstante, en los últimos
años una nueva tecnología basada en las memorias flash ha empezado a desplazar a
este elemento en su función más básica, la de albergar el SO.
Hablamos de los SSD o unidades de disco de estado sólido. Se trata de
un almacenamiento persistente que mejora varias propiedades de los HDD
tradicionales: son silenciosos, no tienen partes móviles que se puedan degradar con el
uso, su velocidad de lectura y escritura es mayor, y su latencia menor. Su único
inconveniente es el precio, y este no deja de reducirse.
Los SSD están formados por controladores, la unidad de memoria, un caché o
buffer, una batería o supercapacitor, y una interfaz de conexión con el equipo. El
controlador es uno de los elementos más relevantes pues la cantidad de chips NAND
que lo conformen establece la velocidad de lectura y escritura del aparato.
El SSD soporta alrededor de un millón de reescrituras. Dependiendo de la gama a la
que se acceda, se equipa con memoria flash NAND no volátil o con memorias flash de
célula de triple, cuádruple o múltiple nivel (TLC, QLC y MLC) que son más baratas y
presentan peores prestaciones. También hay artículos en el mercado con memorias
basadas en la DRAM, 3D Xpoint (tecnología de Intel y Micron), NVDIMM (Hyper DIMM)
y ULLtraDIMM. La velocidad del SSD depende del tipo de memoria usado; la mejor
opción es la DRAM.
Las interfaces de transferencia de datos disponibles son: SAS, SATA, mSATA, PCI
Express, M.2, U.2, Fibre Channel, USB, UDMA (o Parallel ATA) y SCSI.
En general los SSD son más robustos, más duraderos y más rápidos, de ahí que
sean la opción preferida actualmente.
Componentes hardware de periféricos de entrada
Se entiende como periférico de entrada al equipo externo a la torre del
ordenador que permite la introducción de información al sistema. Dentro
del hardware principal debemos considerar el teclado y el ratón.
Teclado
El teclado presenta una colección de teclas (matriz) que posibilita la introducción de
comandos en el sistema y realizar ciertas operaciones predefinidas. El teclado se
cuenta con un microprocesador que transforma las señales que llegan desde la matriz
a información eléctrica interpretable por el equipo al que está conectado.
Existen diferentes tipos de teclados en el mercado según la utilidad que se les vaya a
dar:
Los teclados flexibles se enrollan o pliegan para ocupar poco. Estas envolventes
especializadas son muy apreciadas por los viajeros, quienes ahorran espacio en sus
maletas. También se emplean en entornos donde el nivel de limpieza necesario es
muy alto (laboratorios y hospitales, por citar algunos casos).
Los teclados proyectados funcionan gracias a un proyector, cámaras y sensores. La
imagen de la matriz se proyecta en una superficie plana y se captura el movimiento de
las manos sobre esta. Todavía están insuficientemente desarrollados, pero se usan en
las mismas aplicaciones que los anteriores.
Otro caso de teclados especializados son los del segmento gaming. Los más
apreciados son los que traen equipados teclas mecánicas, aunque también se valora
la capacidad de configuración de shortcuts, la programación de macros, el
registro de teclas simultáneas y la estética. La latencia de transmisión de estos
equipos es muy reducida para minimizar el impacto sobre las partidas del usuario.
En los teclados para redacción, programación o databasing, la resistencia de las
teclas es inferior para evitar lesiones asociadas a esfuerzos por movimientos
repetitivos. También permiten una posición más cómoda de las manos sobre el
dispositivo para disminuir la incidencia del síndrome de túnel carpiano. La ergonomía
es uno de los factores fundamentales en el diseño de estos modelos.
El uso que se les va a dar a los teclados no es único factor que permite una
clasificación. Según el método de conexión con el ordenador diferenciamos teclados
cableados e inalámbricos. Estos últimos usan una conexión wireless por Bluetooth,
wifi, radio o infrarrojos. Los primeros emplean cableado USB o PS/2.
El mecanismo detrás el funcionamiento de las teclas también permite una
diferenciación fundamental. Existen teclas mecánicas, teclas clásicas, teclas de
membrana y teclas chiclet (raras).
Las primeras merecen párrafo aparte. Las teclas mecánicas tienen un interruptor de
pulsado individual que mejora la precisión del aparato. Hay múltiples interruptores
disponibles: Cherry Mx (los más populares), Razer, Kailh, Romer-G, QS1 y Topre. Al
comprar teclas mecánicas hay que considerar su punto de actuación, recorrido,
sonido de percusión y peso.
Un beneficio poco conocido de los teclados mecánicos es la posibilidad de sustituir
teclas rotas de manera individual sin desprenderse de todo el teclado. Esto afecta
positivamente la longevidad del equipo, convirtiendo los teclados mecánicos en una
opción medioambientalmente responsable.
Finalmente, debe considerarse la distribución de teclado. Término que se refiere a las
teclas disponibles y su posición en la matriz; topología que varía geográficamente del
siguiente modo:
AZERTY: diseñada especialmente para países francófonos, con variantes francesa,
belga y árabe combinado (presente en países norteafricanos como Marruecos, Argelia
o Túnez).
QWERTY: la distribución más común, disponible en versiones alemana, española y
japonesa.
QWERTZ: empleada en países germanohablantes casi de forma exclusiva: Alemania,
Austria, Suiza…
Distribuciones de uso limitado: Colemark, Dvorak, HCESAR…
Distribuciones especiales: Braille y similares
Componentes hardware enfocados a los
dispositivos apuntadores
Son periféricos que convierten el movimiento de la mano en instrucciones
comprensibles por el ordenador. El más habitual es el ratón o mouse en ordenadores
de sobremesa, y el touchpad y la pantalla táctil en dispositivos portátiles.
Ratón
El ratón es un dispositivo apuntador de pequeño tamaño pensado para ser guiado
sobre una superficie plana con la palma de la mano. Se trata de un aparato
ergonómico dotado de varios botones, un sistema de captura de movimiento, un
controlador y un sistema de transmisión de información.
Dependiendo de las características de algunos de estos elementos constituyentes se
pueden clasificar los ratones de diferentes modos.
Según su sistema de transmisión:
Ratones inalámbricos. Emplean wifi, radiofrecuencias, IR o Bluetooth para
intercambiar información con el ordenador.
Ratones con cableado. Emplean un puerto USB o PS/2 para conectarse a la torre.
Según su sistema de captura de movimiento:
Mecánico Disponen de una bola de goma rígida en la parte inferior que se mueve
activando dos ruedas internas que funcionan a modo de sensor cuando el usuario
desplaza el ratón sobre la superficie en la que se apoya. Presenta malas características
de durabilidad debido a la presencia de elementos móviles, siendo especialmente
susceptible al encasquillamiento por suciedad acumulada en los mecanismos.
Ópticos. Alcanza una precisión de 800 puntos por pulgada (ppp o dpi). Son más
duraderos, pero requieren una alfombrilla de ratón para funcionar adecuadamente.
Láser. Evolución del anterior que aporta mayores valores de dpi: hasta 2000 ppp. Son
los preferidos de jugadores profesionales de videojuegos y diseñadores gráficos.
Trackballs. Similar al ratón mecánico. Los botones tienen prioridad sobre el
movimiento del aparato. La bola de goma migra a la parte superior del ratón y su
control se asigna al pólex.
Multitáctiles. Es un híbrido entre un ratón y un touchpad.
Al elegir un ratón la ergonomía es importante. En este sentido los
ratones gaming suelen ofrecer las mayores posibilidades de configuración: distribución
de botones instalados, resistencia opuesta por los botones, dimensiones de la
envolvente de agarre, etc.
Touchpads
Se trata de un panel táctil que cumple las funciones del ratón en equipos
informáticos como netbooks y portátiles.
Dadas sus funciones análogas, el touchpad también dispone de botones que permitan
controlar la computadora. Si bien, la parte más importante es la zona táctil. Esta
detecta la posición del dedo calculando la capacidad eléctrica presente en los
diferentes puntos de la región. Se alcanzan precisiones de 25 micrones.
Algunos touchpads disponen de tecnología multitouch que permite usar varios dedos
simultáneamente para manejar el sistema con mayor control. Otros permiten
cuantificar la presión empleada.
Pantalla táctil
Algunos netbooks integran funciones de control táctiles en la pantalla. Habitualmente
esta solución es más común en teléfonos móviles, tabletas y electrónica de consumo.
Las pantallas táctiles pueden ser resistivas, capacitivas y de onda acústica de
superficie. Las primeras son las más económicas y precisas, pero su brillo es un 15%
menor y son más gruesas. Las capacitivas funcionan como los touchpads previamente
documentados. Las de onda acústica, más endebles, usan localización sonora.
Dispositivos de salida
Son todos aquellos elementos que presentan información de utilidad para el
usuario. En este artículo el único que consideramos como estrictamente necesario es
el monitor.
Monitor
Se trata de una pantalla que convierte los bits de información en elementos visuales
fácilmente interpretables por el usuario.
Existen múltiples tecnologías usadas en los monitores: tubo de rayos catódicos (CRT),
plasma (PDP), cristal líquido (LCD), diodos orgánicos de emisión de luz (OLED) y láser.
Las especificaciones que nos importan en estos periféricos son:
Resolución de pantalla. Actualmente es raro encontrar pantallas con una resolución
inferior a 1280×768 píxeles (alta definición o HD). Algunas resoluciones comunes
disponibles en el mercado son Full HD, Retina Display y 4K. La resolución define el
ratio de aspecto de la imagen y las dimensiones de la pantalla que se pueden usar sin
perder definición percibida.
Tasa de refresco. También conocida como frecuencia de refresco o de barrido
vertical, esta especificación se refiere al número de cuadros que se pueden presentar
en pantalla cada segundo. Cuanto mayor sea el número, mejor será la fluidez
percibida. Valores comunes de velocidad de refresco son 60, 120, 144 y 240 herzios.
Tamaño. Se mide en pulgadas sobre le diagonal mayor del rectángulo que forma la
pantalla. También la geometría tiene relevancia, existen pantallas de nueva generación
con un diseño cóncavo desde la perspectiva del usuario que mejoran la inmersión al
dar una sensación más panorámica; es una solución óptima para aplicaciones de
reproducción de medios.
Tiempos de respuesta y latencia. Mide el tiempo que pasa desde que el ordenador
dispone de cierta información hasta que la presenta. Es relevante en la escena
competitiva de videojuegos, entre otras.
Panel de tecnología. Configuración de conexiones, corrección de color, selectores
para parámetros, etcétera.
Alimentación eléctrica y otros elementos
Para que el equipo funcione adecuadamente se necesita una fuente de alimentación
eléctrica que capaz de proveer la energía requerida. La fuente de alimentación se
integra en la torre y debe estar dimensionada considerando la demanda de tensión de
los componentes del ordenador. Estas fuentes pueden ser modulares y semimodulares,
y su tensión nominal suele encontrarse entre los 150 y los 2000 vatios.
La caja del ordenador y bastidores para aplicaciones especiales son estructuras de
soporte para los compontes de procesamiento y almacenamiento. Es cuestionable
si son parte del hardware principal, pero los incluimos aquí igualmente.
Finalmente, atendiendo a las mismas precisiones del párrafo anterior, se puede
justificar la inclusión de la refrigeración en este apartado. El sistema de refrigeración
es el conjunto de elementos que mantienen la temperatura del ordenador en
valores aceptables.
La refrigeración se puede lograr mediante ventiladores, placas de radiación, conductos
de refrigerante o una combinación de los anteriores. La disipación de calor efectiva es
el parámetro más importante de estos sistemas, pero conviene conocer también la
vida útil, el ruido generado y la complejidad de la instalación.
Componentes hardware complementario para
aplicaciones comunes
En este grupo encontramos aquellos componentes diseñados para cumplir un
cometido específico adicional sobre el funcionamiento básico del ordenador.
Así, ordenadores dedicados a diseño gráfico o aplicaciones gaming requieren
componentes hardware extra para suplir sus unidades de procesamiento. Aquellos
equipos para ocio deben contar con periféricos de entrada y salida que ensalcen las
capacidades multimedia del sistema informático Los trabajadores de equipos
internacionales necesitan comunicarse mediante internet y llevar documentos del
entorno virtual a un formato físico…
Todos los componentes que permiten estas tareas se
consideran hardware complementario. Veamos los casos más habituales.
Unidades de procesamiento en componentes
hardware
Dentro de este grupo hablaremos de las GPU, la NIC y las tarjetas de expansión,
elementos que permiten expandir las capacidades y poder de computación en
determinados usos, pero prescindibles para aplicaciones básicas.
GPU o unidad de procesamiento gráfico
La GPU es un coprocesador especialmente desarrollado para trabajar con gráficos
y operaciones de coma flotante. Trabaja en paralelo con la CPU dividiendo en la
trabajo según la información implicada.
Los parámetros más importantes de una GPU (rara vez denominada como VPU) son
los triángulos o vértices dibujados por segundo (limita la complejidad de los
gráficos con los que trabaja) y la velocidad de rellenado de píxeles (que nos informa
sobre cuán rápido se aplican las texturas sobre la geometría dibujada). La frecuencia
de reloj de la GPU, el tamaño de su bus de memoria, y otros parámetros de la CPU y
del chipset definen cuál es el número de cuadros por segundo que la GPU puede
generar. Este valor es la tercera especificación determinante al hablar de unidades de
procesamiento gráfico.
Dependiendo del modelo de GPU concreto, también interesa conocer la tecnología
con la que puede trabajar y si es posible instalar varias unidades en paralelo (SLI).
NIC o tarjeta de red
Este componente de hardware recibe muy diversos nombres: tarjeta de interfaz de red
(TIR), network interface controller (NIC), adaptador de red, placa de red, interfaz de red
física, adaptador LAN o, simplemente, tarjeta de red, su nombre más común en
castellano.
Es un adaptador que conecta un equipo informático a una red de computadores
pública o privada, de forma que los diferentes sistemas conectados puedan compartir
información y recursos entre sí.
Las NIC pueden usar distintas tecnologías para transferir paquetes de
información: polling, IRQ-E/S controlada, E/S programada, DMA, DMA de terceros,
bus mastering…
Al elegir una tarjeta de red que se adecúe a las necesidades del internauta hay que
fijarse en su velocidad de transferencia (limitada por los buses equipados -PCI, PCI-X o
PCIe-), la tecnología empleada, los tipos de red que soporta y los conectores
instalados de serie (SC, FC, LC, RJ45…).
Tarjetas de expansión
Se trata de dispositivos con chips y controladores que aumentan las prestaciones
del ordenador cuando se conectan. Tanto la tarjeta de red como la GPU pueden
considerarse, en el sentido más general del término, tarjetas de expansión. Dentro de
este grupo están, además, los siguientes elementos de hardware:
Tarjetas de sonido o audio
Tarjetas gráficas
Módems internos
Tarjetas sintonizadoras de radiotelevisión
Unidades de almacenamiento
Cuando se almacena información, dos aspectos son importantes: disponer de tanta
memoria como sea necesario y que la información no se pierda con el paso del
tiempo. En este sentido las unidades de almacenamiento externas nos permiten
aumentar nuestra capacidad de memoria, mientras que los lectores ópticos nos dan
acceso a formatos de guardado descontinuados.
Unidades de lectura óptica
Se trata de hardware capaz de leer dispositivos de almacenamiento desfasados o en
proceso de abandono: disquetes, CD, DVD, etc. Están compuestos por elementos
mecánicos como motores y cabezales de lectura de forma muy similar a los definidos
ya en el caso de las unidades de disco duro.
Unidades de almacenamiento externo
Hablamos en este caso de espacios de memoria adicional, ya sea en formato HDD,
SSHD o SSD que se unen al ordenador mediante conectores USB o análogos. Pueden
ser componentes individuales o formar estructuras de gran capacidad conocidas como
SAS, SAN o NAS.
Periféricos de salida, entrada y E/S
Dos de los elementos más comunes entre los periféricos complementarios son los
auriculares y la impresora. Hay muchos otros periféricos importantes como el fax, la
cámara web, la tableta digitalizadora…, pero abarcar todos ellos pormenorizadamente
pudiera rellenar un libro. En los siguientes párrafos nos ceñimos a los dos aparatos ya
señalados.
Auriculares
La opción preferida para disfrutar de archivos de audio. Con los auriculares podemos
establecer el máximo volumen sin molestar a los que nos rodean. Muchos auriculares
disponibles en las tiendas de informática actualmente llevan equipados un micrófono
que favorece las conversaciones telemáticas.
Para elegir un buen auricular la fidelidad del sonido, potencia desarrollada por los
altavoces integrados, velocidad de transferencia de las conexiones y cableado, y
ergonomía del aparato son aspectos relevantes.
La única alternativa a los auriculares son los altavoces, pero estos invaden el espacio de
otros usuarios.
Impresoras
Este periférico transforma la información virtual en documentos físicos escritos o
ilustrados. Su uso va decayendo según se abandona el papel, pero aún es
generalizado.
Junto a escáneres, cámaras fotográficas y webcams, una de las especificaciones más
importantes de las impresoras es la definición a la que trabajan. En el caso de las
impresoras se suele referir como puntos por pulgada (ppi o ppp). También importa el
tipo de tecnología de impresión:
Impresión por tinta (inkjet). Son baratas pero consumen tinta rápidamente y los
recambios encarecen desmesuradamente el servicio prestado.
Impresión láser (tóner). Requieren una inversión inicial cuantiosa, pero merecen la
pena a largo plazo dado su bajo consumo.
Métodos de impresión menos usuales: tinta sólida, impacto, matriz de puntos,
sublimación de tinta, etc.
Palabras finales y conclusiones acerca de los
componentes hardware
Dado que la impresora es un hardware con partes móviles, al comprar una es
conveniente cerciorarse de que su construcción sea robusta. Decantarse por
fabricantes ampliamente conocidos es siempre recomendable.
Os recomendamos las siguientes guías:
Mejores procesadores del mercado
Mejores placas base del mercado
Mejores memoria RAM del mercado
Mejores tarjetas gráficas del mercado
Mejores discos duros del mercado
Mejores SSD del mercado
Mejores chasis o cajas de PC
Mejores fuentes de alimentación
Mejores disipadores y refrigeraciones líquidas
Mejores discos duros externos
¡No te la pierdas!
Así cerramos este extenso artículo sobre los componentes hardware. Los principales
componentes necesarios para que el ordenador funcione así como los complementos
más habituales han sido tratados de forma exhaustiva. Esperamos que os haya
ayudado.
Componentes de Entrada y salida de una computadora.
1. 1. Componentes externos de una computadora Dispositivos Entrada Salida E/S
Materia: Informática aplicada a procesos. Curso: Quinto Técnica.
2. 2. Dispositivos de Entrada Son aquellos que dan información y/o instrucciones Teclado
Mouse Escáner Lápiz óptico Lector de código de barra Joysticks Materia: Informática
aplicada a procesos. Curso: Quinto Técnica.
3. 3. Teclado El primer teclado se desarrolló en Estados Unidos en 1850. Los primeros
teclados de computadora, como tal, datan de 1946. La tecnología de los teclados
actuales data de finales del 70: la tecnología VDT. Esta permite que al presionar sobre
una tecla, viaje un impulso eléctrico, ahorrando tiempo y aumentando la eficacia de
teclear. En la actualidad los teclado fueron evolucionando hasta llegar a ser
inalámbricos y flexibles. Funciones y características: Permite la comunicación entre el
usuario y la computadora por medio de caracteres. Cuenta con un conjunto de teclas
que se pueden dividir en cuatro bloques: alfabético, numérico, teclas de función y
bloque de control. Al pulsar una tecla, el teclado codifica el carácter presionado y envía
la señal a la computadora. Materia: Informática aplicada a procesos. Curso: Quinto
Técnica.
4. 4. Materia: Informática aplicada a procesos. Curso: Quinto Técnica. Mouse Fue
diseñado por Douglas Engelbart y Bill English durante los años 60. La primera
maqueta se construyó de manera artesanal de madera, y se patentó con el nombre de
"X-Y Position Indicator for a Display System" 1968 se presentó públicamente el primer
modelo oficial. Funciones y características: es un pequeño periférico de entrada cuya
principal utilidad es desplazar el cursor por la pantalla a medida que se arrastra con la
mano por una superficie. Además, este dispositivo posee dos o tres teclas de control
cuya utilidad varía de acuerdo con la aplicación que se esté utilizando
5. 5. Materia: Informática aplicada a procesos. Curso: Quinto Técnica. Escáner Fue
realizada el día 22 de octubre de 1938 por Chesrer Carlson. Carlson produjo mejoras
al sistema de copiado xerografito y vendió los derechos comerciales del mismo a la
compañía Haloid en el año 1947. En la actualidad prácticamente todas las marcas de
copiadoras utilizan el mismo proceso xerográfico. Funciones y características: es un
dispositivo que digitaliza imágenes, textos, gráficos, fotografías, etc., para que la
computadora los procese. Permite capturar información disponible en papel. Su
funcionamiento se basa en la iluminación del texto o imagen.
6. 6. Materia: Informática aplicada a procesos. Curso: Quinto Técnica. Lector de código
de barra Los orígenes del lector de son del año 1973, cuando Jerome Swartz y
Sheldon Harrison fundaron la empresa Symbol Technologies. Funciones y
características: Este instrumento permite reconocer códigos impresos por medio de
barras de distintos grosores. Su funcionamiento consiste en que un haz de luz de un
rayo láser refleje las barras del lector. Este tipo de ingreso de datos se utiliza en los
supermercados.
7. 7. Materia: Informática aplicada a procesos. Curso: Quinto Técnica. Lápiz óptico El
lápiz óptico fue creado en 1952 como parte de la Computadora Whirlwind, desarrollado
por el Instituto Tecnológico de Massachusetts. Funciones y características: es un
dispositivo con forma de lápiz que se apoya sobre la pantalla del monitor, lo que hace
mover en la pantalla al cursor para que dibuje, trace puntos o líneas, según la
aplicación con la que esté trabajando. Su funcionamiento se basa en la detección de
luminosidad en la pantalla. Se utiliza en trabajos de diseño gráfico, de ingeniería, etc.
8. 8. Materia: Informática aplicada a procesos. Curso: Quinto Técnica. Joysticks La
eléctrica joystick de 2 ejes fue inventado por CB Mirick en el Laboratorio de
Investigación Naval de Estados Unidos (NRL) y patentado en 1926. Los alemanes
desarrollaron un joystick de 2 ejes eléctrico alrededor de 1944. La Magnavox Odyssey
creó el primer joystick de videojuegos en 1967. Funciones y características: dispositivo
manejador de cursor que se utiliza en los programas de juegos para enviar
coordenadas y al menos una acción a la computadora. El funcionamiento se basa en
un conjunto de interruptores que se pulsan con el movimiento de la palanca.
9. 9. Dispositivos de Salida Son aquellos que permiten ver resultados del proceso de
datos que realice la computadora (salida de datos). Monitor Impresora Materia:
Informática aplicada a procesos. Curso: Quinto Técnica.
10. 10. Materia: Informática aplicada a procesos. Curso: Quinto Técnica. Monitor Las
primeras computadoras se comunicaban con el operador mediante unas pequeñas
luces, que se encendían o se apagaban al acceder a determinadas posiciones de
memoria o ejecutar ciertas instrucciones. El inventor del tubo es William Crookes, en
1878, aunque los primeros prototipos vinieron después de versiones de Karl Ferdinand
Braun en 1897. Funciones y características: es el más popular. Esta pantalla está
formada por una matriz de puntos luminosos llamados pixels. Existen diferentes tipos
de pantallas y resoluciones (cantidad de pixels). Pueden ser monocromáticos o de
color. Cuanto más resolución, más calidad de imagen. Estan relacionados con su
tarjeta gráfica que los controla. Hay pantallas LCD (Liquid Cristal Display), pantallas de
cristal líquido.
11. 11. Materia: Informática aplicada a procesos. Curso: Quinto Técnica. En 1950 llega la
primera impresora eléctrica para computadoras, sin embargo solo era capaz de
imprimir textos. En 1959 Xerox fabrica la fotocopiadora y para 1973 aparece la primera
fotocopiadora a color, fabricada por Canon. En 1978 se crea la impresora de
margarita, que únicamente podía escribir letras y números, pero tenía la calidad de
una máquina de escribir. Finalmente en 1980 aparece la impresora láser en blanco y
negro, 8 años más tarde le implementan la modalidad de color. Impresora Funciones y
características: permiten la obtención de dibujos, textos, etc. impresos en papel. Hay
un gran número de tipos de impresoras y se caracterizan por la forma en que imprimen
sobre el papel, velocidad (ppm – páginas por minutos) y la resolución (dpi – puntos por
pulgadas).
12. 12. Dispositivos de Entrada/Salida Modem Dispositivos de almacenamiento Materia:
Informática aplicada a procesos. Curso: Quinto Técnica.
13. 13. Modem Materia: Informática aplicada a procesos. Curso: Quinto Técnica. La
empresa Hayes Microcomputer Products Inc. En 1979 fue la encargada de desarrollar
el primer modelo de módem llamado Hayes Smartmodem, este podía marcar números
telefónicos sin levantar el auricular, éste se convirtió en el estándar y es por esto que
la mayoría de los fabricantes desarrollaba módems compatibles con este modelo, los
primeros módems permitían la comunicación a 300 bps los cuales tuvieron un gran
éxito y pronto fueron apareciendo modelos más veloces Funciones y características:
se utiliza la línea telefónica, por lo que los datos digitales de la computadora son
transformados en señales analógicas. Cuando se recibe información, se demodulan
las señales analógicas en digitales. La velocidad de transmisión se mide en bits por
segundo (BPS). Pueden ser internos o externos.
14. 14. Dispositivos de almacenamiento Materia: Informática aplicada a procesos. Curso:
Quinto Técnica. En 1725, un trabajador textil llamado Basile Bouchon usó tarjetas
perforadas para controlar telares textiles en Francia. No fue hasta 1890 cuando una
tarjeta perforada fue usada por Herman Hollerith para grabar y leer datos en un
ordenador. La usó para completar el censo de 1890 en solamente un año. Antes de
esto, el censó de 1880 duró 8 años. Con el tiempo los dispositivos de almacenamiento
fueron evolucionando cambiando sus estructuras, hasta 2008 que se introdujeron las
Unidades de estado Sólido, sin partes móviles, tiempo de arranque más rápido y
menos espacio físico.
Los siguientes son algunos de los dispositivos de entrada importantes que se
utilizan en una computadora:
Teclado
Ratón
Joy Stick
Pluma de luz
Bola de pista
Escáner
Tableta digitalizadora
Micrófono
Tinta magnética tarjeta Reader(MICR)
Carácter óptico Reader(OCR)
Lector de código de barras
Optical Mark Reader(OMR)
Teclado
Teclado es el dispositivo de entrada más comunes y muy popular que ayuda a
introducir datos a la computadora. La disposición del teclado es como el de la
máquina de escribir tradicional, aunque hay algunas teclas adicionales
proporcionados para la realización de funciones adicionales.
Teclados son de dos tamaños 84 teclas o 101/102 teclas, pero ahora también
están disponibles para Windows e Internet teclados con 104 teclas o las 108
teclas.
Las teclas en el teclado son los siguientes:
[Link] tecla Descripción
1 Teclas mecanografía Estas llaves son las teclas de letra (A-z) y teclas de digitos (0-9)
que generalmente dan el mismo diseño que la de las máquinas de
escribir.
2 Teclado numérico Se utiliza para introducir datos numéricos o movimiento del cursor.
En general, consiste en un conjunto de 17 teclas que se
establecen en la misma configuración utilizada por la mayoría
máquinas sumadoras y calculadoras.
3 Teclas de función Las teclas de doce función están presentes en el teclado que se
arreglan en una fila en la parte superior del teclado. Cada tecla de
función tiene significado único y se utiliza para un propósito
específico.
4 Teclas de control Estas teclas proporcionan control de cursor y pantalla. Incluye
cuatro flechas direccionales. Teclas de control también incluyen
Inicio, fin, insertar, eliminar, Page Up, Page Down, Control(Ctrl),
Alternate(Alt), Escape(Esc).
5 Teclas especiales Teclado también contiene algunas teclas especiales como Intro,
Mayús, Bloq Mayús, Bloq Num, barra espaciadora, ficha e Impr
Pant.
Ratón
El ratón es más popular dispositivo señalador. Es un dispositivo de control de
cursor muy famoso tener una caja de tamaño pequeño palm con un balón
redondo en su base que detecta el movimiento del ratón y envía las señales
correspondientes a CPU cuando se pulsan los botones del mouse.
Generalmente tiene dos botones llamado botón izquierdo y derecho y una rueda
está presente entre los botones. Ratón puede usarse para controlar la posición
del cursor en la pantalla, pero no puede utilizarse para ingresar texto en la
computadora.
Ventajas
Fácil de usar
No es muy caro
Mueve el cursor más rápido que las teclas de flecha del teclado.
Palanca de mando
Joystick es también un dispositivo señalador que se utiliza para mover la posición
del cursor en una pantalla del monitor. Es un palo con una bola esférica en sus
extremos superiores e inferiores. La bola esférica inferior se mueve en una toma
de corriente. El joystick se puede mover en las cuatro direcciones.
La función del joystick es similar a la de un ratón. Se utiliza principalmente en
diseño asistido por computadora (CAD) y juegos de computadora.
Pluma de luz
Lápiz óptico es un dispositivo señalador que es similar a una pluma. Se utiliza
para seleccionar un elemento de menú que se muestra o dibujar en la pantalla del
monitor. Consiste en una célula fotoeléctrica y un sistema óptico que se colocan
en un tubo pequeño. Cuando la punta de un lápiz óptico se mueve sobre la
pantalla del monitor y pluma botón es presionado, su elemento de detección
fotocélula detecta la ubicación de la pantalla y envía la señal correspondiente a la
CPU.
Bola de pista
Bola de pista es un dispositivo de entrada que se utiliza sobre todo en la
computadora portátil o computadora portátil, en vez de un ratón. Esta es una bola
que se inserta a medio y moviendo los dedos sobre la bola, se puede mover
puntero. Puesto que todo el dispositivo no se mueve, una bola de pista requiere
menos espacio que un ratón. Una bola de pista viene en varias formas como una
bola, un botón y una plaza.
Escáner
El Escáner es un dispositivo de entrada que funciona como una fotocopiadora. Se
utiliza cuando alguna información está disponible en un papel y es ser transferido
al disco duro de la computadora para la manipulación de otros. Escáner captura
imágenes de la fuente, que luego se convierten en el formato digital que puede
ser almacenado en el disco. Estas imágenes pueden ser editadas antes de
imprimirlas.
Digitalizador
Digitalizador es un dispositivo de entrada que convierte la información analógica
en formato digital. Digitalizador puede convertir una señal de la televisión o la
cámara en una serie de números que podrían almacenarse en una computadora.
Puede utilizarse por la computadora para crear una imagen de lo que había
estado apuntando la cámara. Digitalizador es también conocido como tableta o
tableta gráfica porque convierte gráficos y datos ilustrativos en entradas binarias.
Una tableta gráfica como digitalizador se utiliza para hacer trabajos finos de las
aplicaciones de manipulación de dibujo e imagen.
Micrófono
Microphone is an input device to input sound that is then stored in digital form.
The microphone is used for various applications like adding sound to a multimedia
presentation or for mixing [Link]ófono es un dispositivo de entrada de sonido
de entrada que se almacena en formato digital. El micrófono se utiliza para
diversas aplicaciones como agregar sonido a una presentación multimedia o para
mezclar música.
Magnetic Ink Card Reader(MICR)
Dispositivo de entrada de MICR se utiliza generalmente en los bancos debido a
una gran cantidad de cheques que se procesan cada día. Número de código y
número de cheque del banco están impresos en los cheques con un tipo especial
de tinta que contiene partículas de material magnético que son legibles a
máquina. Este proceso de lectura se denomina reconocimiento de caracteres de
tinta magnética (MICR). Las principales ventajas del MICR es que es rápido y
menos propenso a errores.
Optical Character Reader(OCR)
OCR es un dispositivo de entrada utilizado para leer un texto impreso. OCR
analiza texto ópticamente carácter por carácter, convirtiéndolos en un código de
lectura mecánica y almacena el texto en la memoria del sistema.
Lectores de código de barras
Lector de código de barras es un dispositivo usado para leer datos codificados
(datos en forma de líneas claras y oscuras) de la barra. Barra de datos
codificados se utilizan generalmente en etiquetado de mercancías, los libros etc.
de numeración. Puede ser un escáner de mano o puede ser embebido en un
escáner estacionario. Lector de código de barras digitaliza una imagen de código
de barras, lo convierte en un valor alfanumérico que entonces se alimenta a la
computadora al cual está conectado el lector de código de barras.
Optical Mark Reader(OMR)
OMR es un tipo especial de escáner óptico utilizado para reconocer el tipo de
marca de pluma o lápiz. Se utiliza donde está uno de algunas alternativas para
ser seleccionado y marcado. Se utiliza especialmente para el control de las hojas
de respuesta de exámenes con preguntas de opción múltiple.
Previous Page Print Page
Dispositivos de salida
Te explicamos qué es un dispositivo de salida en informática y para qué sirve. Además,
ejemplos de este tipo de dispositivos.
El monitor de una computadora es el dispositivo de salida por excelencia.
¿Qué son los dispositivos de salida?
En informática, se conoce como dispositivos de salida (output) a aquellos que permiten la
extracción o recuperación de información proveniente del computador o sistema
informático, es decir, su traducción a términos visuales, sonoros, impresos o de cualquier
otra naturaleza.
Esto implica que los dispositivos de salida no suelen introducir información al sistema,
excepto en el caso de dispositivos mixtos o de entrada/salida o E/S (en inglés input/output o
I/O), los cuales pueden cumplir con ambas funciones.
Los dispositivos de salida son variados y permiten la comunicación del sistema
computarizado con el exterior, ya sea con el usuario, con otros sistemas o con una red de
los mismos, ya que es la única vía para obtener datos del sistema, por lo general
representados de alguna manera.
Ver además: Dispositivos de entrada
Ejemplos de dispositivos de salida
Algunos ejemplos comunes de dispositivos de salida son:
Monitores. El dispositivo de salida estándar, que convierte las señales digitales del
sistema en información visual, representada gráficamente, de manera que los
usuarios del sistema puedan percibirla. Existen monitores de todo tipo, variando en
su capacidad de calidad visual, y algunos incluso permiten el ingreso de
información a través de pantallas táctiles (convirtiéndose así en E/S).
Impresoras. Otro clásico de la computación que no pierde su vigencia es el aparato
capaz de convertir en un documento impreso el contenido digital del computador,
permitiendo así extraerlo y convertirlo en un objeto tangible, que se puede
intervenir a mano. Por lo general las impresoras emplean papel y diversos sistemas
de inyección de tinta o de láser.
Parlantes. Los parlantes extraen la información del sistema, pero traduciéndola a
señales sonoras que los usuarios pueden escuchar. Así, los impulsos eléctricos se
vuelven sonido (ondas sonoras) al contrario del funcionamiento de los grabadores o
micrófonos.
Videobeams y proyectores. Se trata de aparatos que reciben información del
sistema computarizado y la representan gráficamente, muy parecido a como lo
hacen los monitores, pero en lugar de emitir en una pantalla, proyectan esa
información como haces de luz, del mismo modo que un proyector de cine o de
diapositivas. Así, puede verse la información en una pared o una superficie
destinada para ello, y a mucho mayor tamaño.
Copiadoras de CD o DVD. Estos formatos de disco, tanto el Disco Compacto (CD)
como el Disco de Video Digital (DVD), permiten trasladar información de un
sistema a otro; solo que una vez copiados o “grabados”, funcionan como una matriz
de la cual se puede replicar información pero no incorporar datos nuevos. La
copiadora de estos discos, así, permite extraer información del sistema y pasarla a
dichos discos.
Módems. Los módems permiten la comunicación del computador con sistemas o
redes informáticas que pueden superar grandes distancias, emitiendo (y recibiendo)
información a través de cables o bandas de ondas de radio. Se trata realmente de un
dispositivo de E/S.
- Fuente: [Link]
Microsoft Windows
Ir a la navegaciónIr a la búsqueda
No debe confundirse con Windows Mobile, Windows Phone o Windows 10
Mobile.
«Windows» redirige aquí. Para otras acepciones del término, véase Windows
(desambiguación).
Microsoft Windows
Parte de la familia Windows NT
Información general
Desarrollador Microsoft
Modelo de desarrollo Software privativo; Shared Source
Lanzamiento inicial 20 de noviembre de 1985 (36 años y 5
días)
Licencia Microsoft CLUF (EULA)
Estado actual En desarrollo
Idiomas Multilingüe
Información técnica
C
Programado en
C++
lenguaje ensamblador
Tipo de núcleo Monolítico (versiones basadas en MS-DOS)
Híbrido (versiones basadas en Windows NT)
Plataformas admitidas ARM
Arquitectura Intel Itanium
Intel Itanium
MIPS
DEC Alpha
PowerPC
x86
Interfaz Windows Shell (hasta Windows 11 Beta)
gráfica predeterminad CShell1(desde Windows 10 RS3/FCU)
a
Método de Windows Update
actualización Microsoft Store
WSUS
Versiones
Última versión estable Windows 11
(11.0.00000.137) ( 05 de octubre de 2021 (1
mes y 20 días))
Última versión en May 2019 Update4 de abril de 2019
pruebas
Historial de versiones
Estables[mostrar]
Pruebas[mostrar]
Serie Windows NT
MS-DOS Microsoft Windows
Asistencia técnica
Todos los sistemas operativos Windows reciben un grado variable de servicio, bajo la
directiva de Ciclo de vida de soporte técnico de Microsoft (info)
↓Véase: Historial de lanzamientos
Artículos relacionados
o Historia de Microsoft Windows
o Versiones de Microsoft Windows
Enlaces
Página principal de Sitio web oficial
Blog
[editar datos en Wikidata]
El primer logo de Windows (1985-1991)
Windows es el nombre de una familia
de distribuciones de software para PC, servidores, sistemas empotrados y
antiguamente teléfonos inteligentes desarrollados y vendidos por Microsoft y
disponibles para múltiples arquitecturas, tales como x86, x86-64 (x64) y ARM.
Desde un punto de vista técnico, no son sistemas operativos, sino que contienen
uno (tradicionalmente MS-DOS o el más actual cuyo núcleo es Windows NT) junto
con una amplia variedad de software; no obstante, es usual (aunque no
necesariamente correcto) denominar al conjunto como sistema operativo en lugar
de distribución. Microsoft introdujo un entorno operativo denominado Windows el
20 de noviembre de 1985 como un complemento para MS-DOS en respuesta al
creciente interés en las interfaces gráficas de usuario (GUI).2 Microsoft Windows
llegó a dominar el mercado mundial de computadoras personales, con más del
70 % de la cuota de mercado, superando a Mac OS, que había sido introducido
en 1984.
La versión más reciente de Windows es Windows 11 para equipos de
escritorio, Windows Server 2019 para servidores y Windows 10
Mobile para dispositivos móviles. La primera versión en español fue Windows 2.1.
La primera versión se lanzó en 1985 y comenzó a utilizarse de forma generalizada
gracias a su interfaz gráfica de usuario (GUI, Graphical User Interface) basada en
ventanas. Hasta ese momento (y hasta mucho después como corazón de
Windows), el sistema operativo más extendido era MS-DOS (Microsoft Disk
Operating System), que por aquel entonces contaba con una interfaz basada
en línea de comandos.
Windows 10 llegó de forma oficial y gratuita a usuarios con licencia genuina
de Windows 7, Windows 8 y Windows 8.1 el 29 de julio de 2015, es la primera
versión que buscó la unificación de dispositivos (escritorio, portátiles, teléfonos
inteligentes, tabletas y videoconsolas) bajo una experiencia común. Su
reemplazo Windows 11 fue lanzado oficialmente el 5 de octubre de 2021, como
una actualización gratuita a través de Windows Update de Windows 10 para
aquellos equipos que cumpla con ciertas especificaciones técnicas compatibles
del nuevo sistema. Microsoft promovió que Windows 11 habría mejorado el
rendimiento y la facilidad de uso sobre Windows 10, contando con cambios
importantes en el Shell de Windows influenciados por el cancelado Windows 10X,
incluido un menú Inicio rediseñado, así como la incompatibilidad con la
arquitectura x86 de 32 bits o los sistemas que usan firmware del BIOS.
Índice
1Versiones más usadas
2Historia
o 2.1Versiones beta de Windows
o 2.2Historial de lanzamientos
3Seguridad
o 3.1Windows Defender
o 3.2Permisos de archivos
4Aplicaciones
o 4.1Windows 10
5Críticas y controversias
6Véase también
7Referencias
8Enlaces externos
Versiones más usadas[editar]
Versión Net Market Share3 W3Counter4 StatCounter5
Windows 10 62.16 % 20.71 % 78.89 %
Windows 7 20.93 % 5.05 % 15.56 %
Windows 8.1 2.54 % ND 3.46 %
Windows 11 5.0% ND ND
Windows XP 0.87 % ND 0.58 %
Windows 8 0.42 % ND ND
Windows Vista 0,11% ND 0.23 %
El segundo logo de Windows (1992-1995)
Historia[editar]
Artículo principal: Historia de Microsoft Windows
El tercer logo de Windows (1995-2003)
Árbol genealógico de Windows
La primera versión de Microsoft Windows, versión 1.0, presentada en diciembre
de 1985, compitió con el sistema operativo de Apple. Carecía de un cierto grado
de funcionalidad y logró muy poca popularidad. Windows 1.0 no era un sistema
operativo completo; más bien era una extensión gráfica de MS-DOS.
Windows versión 2.0 fue lanzado en noviembre de 1987 y fue un poco más
popular que su predecesor. Windows 2.03 (lanzado en enero de 1988) incluyó por
primera vez ventanas que podían solaparse unas a otras. El resultado de este
cambio llevó a Apple a presentar una demanda contra Microsoft, debido a que
infringían derechos de autor.
Windows versión 3.0, lanzado en 1990, fue la primera versión de Microsoft
Windows que consiguió un amplio éxito comercial, vendiendo 2 millones de copias
en los primeros seis meses. Presentaba mejoras en la interfaz de usuario y en la
multitarea. Recibió un lavado de cara en Windows 3.1, que se hizo disponible para
el público en general el 1 de marzo de 1992. El soporte de Windows 3.1 terminó el
31 de diciembre de 2001.
El 24 de agosto de 1995, Microsoft lanzó Windows 95, una nueva versión del
sistema operativo Windows destinada al mercado de consumo pensada para
sustituir a Windows 3.1 como interfaz gráfica y a MS-DOS como sistema
operativo. En esta edición se introdujeron mejoras muy significativas con respecto
a sus antecesores entre las cuales se pueden mencionar los profundos cambios
realizados a la interfaz gráfica de usuario de Windows, que era completamente
distinta a las de versiones anteriores, y el pasar de usar una arquitectura
multitarea cooperativa de 16 bits a usar una arquitectura multitarea apropiativa de
32 bits.
Windows 95 fue la primera versión de Windows en incluir la barra de tareas y el
botón Inicio, los cuales siguieron incluyéndose en versiones posteriores de
Windows, además de ser la primera versión en soportar la función de Plug and
Play.
Acompañado por una extensa y millonaria campaña de marketing, Windows 95 fue
un gran éxito en el mercado en el momento de su lanzamiento y en breve se
convirtió en uno de los sistemas operativos de escritorio más populares.
El siguiente para la línea del usuario fue lanzado el 25 de junio de 1998,
Microsoft Windows 98. Sustancialmente fue criticado por su lentitud y por su falta
de fiabilidad en comparación con Windows 95, pero muchos de sus problemas
básicos fueron posteriormente rectificados con el lanzamiento de Windows 98
Second Edition en 1999. El soporte estándar para Windows 98 terminó el 30 de
junio de 2002, y el soporte ampliado para Windows 98 terminó el 11 de julio de
2006.
El sexto logo de Windows (2012-2021)
El séptimo y actual logo de Windows (2021-presente)
Como parte de su línea «profesional», Microsoft lanzó Windows 2000 en febrero
de 2000. La versión de consumidor tras Windows 98 fue Windows Me (Windows
Millennium Edition). Lan, Windows Me implementaba una serie de nuevas
tecnologías para Microsoft: en particular fue el «Universal Plug and Play». Durante
el 2004 parte del código fuente de Windows 2000 se filtró en internet, esto era
malo para Microsoft porque el mismo núcleo utilizado en Windows 2000 se utilizó
en Windows XP.
En octubre de 2001, Microsoft lanzó Windows XP, una versión que se construyó
en el kernel de Windows NT que también conserva la usabilidad orientada al
consumidor de Windows 95 y sus sucesores. En dos ediciones distintas, «Home»
y «Professional», el primero carece en gran medida de la seguridad y
características de red de la edición Professional. Además, la primera edición
«Media Center» fue lanzada en 2004, con énfasis en el apoyo a la funcionalidad
de DVD y TV, por lo que incluía grabación de TV y un control remoto. A principios
de la década de los 2000, Windows se empezaba a posicionar cómo el innovador
en el mercado, pero su posición fue en declive.
El 30 de enero de 2007, Microsoft lanzó Windows Vista. Contiene un sinnúmero de
características nuevas, a partir de un shell rediseñado, y la interfaz de usuario
ofrece importantes cambios técnicos de envergadura, con especial atención a las
características de seguridad. Está disponible en seis ediciones diferentes.
El 22 de octubre de 2009, Microsoft lanzó Windows 7. A diferencia de su
predecesor, Windows Vista, que introdujo a un gran número de nuevas
características, Windows 7 pretendía ser una actualización incremental, enfocada
a la línea de Windows, con el objetivo de ser compatible con aplicaciones y
hardware con los que Windows Vista no era compatible. Windows 7 tiene soporte
multi-touch, un Windows shell rediseñado con una nueva barra de tareas,
conocido como Superbar, un sistema red llamado HomeGroup, y mejoras en el
rendimiento sobre todo en velocidad y en menor consumo de recursos.
El 26 de octubre de 2012, Microsoft lanzó Windows 8. El mayor cambio introducido
es el reemplazo del Menú Inicio por una pantalla de Inicio de tamaño completo, la
cual incluye nuevas aplicaciones. Su uso está enfatizado para dispositivos con
pantallas táctiles, aunque puede ser utilizado con ratón y teclado. Por primera vez
desde Windows 95, el botón de Inicio desaparece de la barra de tareas. El
escritorio presenta una nueva interfaz y el explorador de Windows incluye la
apariencia "Ribbon" de Microsoft Office. Una actualización masiva del sistema,
Windows 8.1, fue lanzada el 17 de octubre de 2013 con nuevas mejoras de
personalización, rendimiento y un botón para la pantalla de inicio, cuya ausencia
en Windows 8 fue criticada.
El 29 de julio de 2015, Microsoft lanzó Windows 10. Presenta un conjunto de
aplicaciones y una interfaz que permite utilizarse en computadoras personales y
dispositivos móviles. Visualmente es parecido a su predecesor, sin embargo, el
Menú Inicio regresa en esta versión. Windows 10 introduce un nuevo
navegador: Microsoft Edge, y un asistente de voz personal: Cortana, junto con una
interfaz de sistema minimalista. Se trata de un sistema que a diferencia de sus
predecesores, lanzará actualizaciones masivas periódicamente para convertirse
en un sistema de servicio. Hasta el 29 de julio de 2016, Microsoft ofreció
gratuitamente una actualización a Windows 10 desde una PC con Windows
7 o Windows 8.1.
El 24 de junio de 2021, Microsoft anunció y confirmó Windows 11 el sistema
operativo que se lanzó oficialmente el 5 de octubre de 2021. Incorpora una interfaz
de usuario basada en Fluent Design incluyendo transparencias, sombras, íconos
redondeados en todo el sistema. El menú Inicio sufre un rediseño que elimina
los tiles del lateral. Los iconos de la barra de tareas incluyendo en botón Inicio
aparecen centrados en la mitad de la pantalla, un diseño que ha sido comparado
al del dock de macOS.
Versiones beta de Windows[editar]
Las versiones Beta, Alpha o de pruebas, son versiones gratuitas que se crean
como base para el próximo sistema operativo de Windows a lanzar. En ellas se
colocan algunas funciones que Microsoft ha puesto por defecto y que las lanza al
público para demostrarles a los usuarios cómo puede ser la futura versión de
Windows. Mientras estas versiones estén activas, los usuarios pueden reportar
errores que se encuentren en el sistema operativo, (ya que no tienen soporte para
actualizaciones) y si el reporte es solucionado, Microsoft le dará una cantidad de
dinero al usuario que ha reportado dicho error.
Las versiones de prueba son muy diferentes a las originales, puesto que no se
comercializan y que tienen nombres distintos. Por ejemplo, la versión que se utilizó
para crear Windows 95, fue nominada "Chicago". Estos nombres también se
suelen llamar "Codenames". En algunas versiones de prueba (como Windows 8
BETA), no llevan un respectivo codename, y por este motivo llevan el nombre de
la próxima versión de Windows de la respectiva versión de pruebas, junto a su
indicador "Beta".
Chicago (Windows 95)
Memphis (Windows 98)
Neptune / Whistler (Windows XP)
Longhorn (Windows Vista)
Blackcomb / Vienna (Windows 7)
Blue (Windows 8.1)
Threshold (Windows 10)
Redstone (Windows 10 Anniversary Update hasta October 2018 Update)
Vanadium (Windows 10 November 2019 Update)
Vibranium (Windows 10 2004, 20H2 y 21H1)
Sun Valley (Windows 11 y Windows 10 21H2)
Historial de lanzamientos[editar]
Fecha de publicación Nombre Soporte
20 de noviembre de 1985 Windows 1.0 No Soporte finalizado el 31 de diciembre de
9 de diciembre de 1987 Windows 2.0 No Soporte finalizado el 31 de diciembre de
22 de mayo de 1990 Windows 3.0 No Soporte finalizado el 31 de diciembre de
27 de julio de 1993 Windows NT No Soporte finalizado el 31 de diciembre de
El soporte estándar finalizó el 31 de dicie
24 de agosto de 1995 Windows 95 No El soporte extendido finalizó el 31 de dic
El soporte estándar finalizó el 30 de junio
25 de junio de 1998 Windows 98 No El soporte extendido finalizó el 11 de jul
El soporte estándar finalizó el 30 de junio
17 de febrero de 2000 Windows 2000 No El soporte extendido finalizó el 13 de jul
El soporte estándar finalizó el 31 de dicie
14 de septiembre de 2000 Windows Me No El Soporte extendido finalizó el 11 de jul
El soporte estándar finalizó el 14 de abril
25 de octubre de 2001 Windows XP No El soporte extendido finalizó el 08 de abr
El soporte estándar finalizó el 10 de abril
30 de enero de 2007 Windows Vista No El soporte extendido finalizó el 11 de abr
El soporte estándar finalizó el 13 de ener
22 de octubre de 2009 Windows 7 No El soporte extendido finalizó el 14 de ene
26 de octubre de 2012 Windows 8 No El soporte finalizó el 12 de enero de 2016
El soporte estándar finalizó el 9 de enero
17 de octubre de 2013 Windows 8.1 Parcial
Soporte extendido vigente hasta el 10 de
Soporte estándar varía según las versione
29 de julio de 2015 Windows 10 Sí
Soporte extendido hasta el 14 de octubre
5 de octubre de 2021 Windows 11 Sí El soporte empezó desde octubre de 2021
Seguridad[editar]
Una de las principales críticas que reciben los sistemas operativos Windows es la
debilidad del sistema en lo que a seguridad se refiere y el alto índice
de vulnerabilidades críticas. El propio Bill Gates, fundador de Microsoft, ha
asegurado en repetidas ocasiones que la seguridad es objetivo primordial para su
empresa.17
Partiendo de la base de que no existe un sistema completamente libre de errores,
las críticas se centran en la lentitud con la que la empresa reacciona ante un
problema de seguridad que puede llegar a meses 18192021 o incluso años2223de
diferencia desde que se avisa de la vulnerabilidad hasta que se publica un parche.
En algunos casos la falta de respuesta por parte de Microsoft 2425 ha provocado que
se desarrollen parches que arreglan problemas de seguridad hechos por
terceros.26
Uno de los pilares en que se basa la seguridad de los productos Windows es
la seguridad por ocultación, en general, un aspecto característico del software
propietario que sin embargo parece ser uno de los responsables de la debilidad de
este sistema operativo ya que, la propia seguridad por ocultación, constituye una
infracción del principio de Kerckhoff, el cual afirma que la seguridad de un sistema
reside en su diseño y no en una supuesta ignorancia del diseño por parte del
atacante.27
Windows Defender[editar]
Artículo principal: Windows Defender
El 6 de enero de 2005, Microsoft lanzó una versión Beta de Microsoft AntiSpyware,
basado en Giant AntiSpyware publicado anteriormente. El 14 de febrero de 2006,
Microsoft AntiSpyware se convirtió en Windows Defender con el lanzamiento de la
Beta 2. Windows Defender era un programa diseñado para proteger
contra spyware y otro software no deseado. Los usuarios de Windows
XP y Windows Server 2003 que tienen copias originales de Microsoft Windows
pueden descargar libremente el programa desde el sitio web de Microsoft y
Windows Defender se suministra como parte de Windows Vista y Windows 7.
Windows Defender y Microsoft Security Essentials se han combinado en un solo
programa, denominado Windows Defender. Sus características y la interfaz de
usuario se basan en Microsoft Security Essentials. Así mismo, Windows Defender
se transformó en un programa antivirus y Spyware. A pesar de que está activada
de forma predeterminada, se puede desactivar para utilizar otra solución antivirus.
Permisos de archivos[editar]
En todas las versiones de Windows con NT 3 se han basado en un sistema de
permisos de sistema de archivos denominado AGDLP (cuentas, Global, Local,
permisos) AGLP que en esencia donde se aplican los permisos de archivo a la
carpeta en forma de un grupo local que luego tiene otros 'grupos globales' como
miembros. Estos grupos globales mantienen otros grupos o a usuarios según las
diferentes versiones de Windows que utiliza. Este sistema varía de otros productos
de proveedores tales como Linux y NetWare debido a la 'estática' asignación de
permiso se aplica directorio para el archivo o carpeta. Sin embargo con este
proceso de AGLP/AGDLP/AGUDLP permite a un pequeño número de permisos
estáticos para aplicarse y permite cambios fáciles a los grupos de cuentas sin
volver a aplicar los permisos de archivo de los archivos y carpetas.
Aplicaciones[editar]
Son aplicaciones que trae pre-instaladas el sistema operativo Windows 10.
Windows 10[editar]
Calculadora
Cortana
Groove Música
Mapas
Microsoft Edge
Microsoft Store
OneDrive
OneNote
Paint 3D
Películas y TV
Skype
Xbox
Bloc de notas es un editor de texto simple incluido en los sistemas operativos
de Microsoft desde 1985. Su funcionalidad es muy simple.
La Comisión Europea, que ha impuesto varias multas a Microsoft
Internet Explorer es un navegador web de Internet producido
por Microsoft para su plataforma Windows. Fue creado en 1995 tras la
adquisición por parte de Microsoft del código fuente de Mosaic, un navegador
desarrollado por Spyglass, siendo rebautizado entonces como Internet
Explorer. Las primeras versiones, basadas en Mosaic, no supusieron ninguna
amenaza para el entonces dominante Netscape Navigator, ya que eran
bastante simples y no eran compatibles con algunas de las extensiones más
populares de Netscape que dominaban la web de la época (como los marcos
o JavaScript). Fue el navegador de Internet con mayor cuota de mercado, ya
que se incluye integrado por defecto con Windows, hecho que le ha costado
a Microsoft demandas por monopolio en Europa, actualmente su uso es muy
bajo.28
Microsoft Edge es un navegador web de internet desarrollado
por Microsoft para la plataforma Windows. Esta desarrollado en base al
proyecto de Chromium desarrollado por Google como Open Source, debido al
fracaso del anterior Microsoft Edge, la compañía decide desarrollar el
navegador desde cero, tomando en cuenta la seguridad y el rendimiento.
Como se dice en la página oficial de Microsoft: "Reconstruido desde cero para
ofrecerte compatibilidad y rendimiento de primera clase, la seguridad y la
privacidad que mereces, y nuevas características diseñadas para ofrecerte lo
mejor de la Web." 29
Mapa de caracteres es una utilidad incluida con los sistemas operativos
Microsoft Windows y se utiliza para visualizar todas las fuentes tipográficas
instaladas en el sistema, para comprobar la entrada del teclado (Alt + código).
Paint es un programa simple de dibujo gráfico desarrollado por Microsoft. Su
antecesor fue el PaintBrush, incluido desde Windows 1.0 hasta Windows 3.11.
Desde entonces, Paint ha acompañado al sistema
operativo Microsoft Windows desde Windows 95. Posee una nueva
versión, Paint 3D, incorporada a partir de la actualización Creators Update
de Windows 10.
Reproductor de Windows Media es un reproductor multimedia que permite
reproducir música y vídeo de formatos compatibles (.mp3, .mp4, .waw, .wmv,
etc.). La última versión de este reproductor ha sido la
versión 12. Windows Media Player está incluido en todas las versiones
de Windows, incluyendo las versiones más recientes como Windows 8.1 o
Windows 10. Actualmente se encuentra en desuso.
Windows Journal es una aplicación creada por Microsoft e incluida desde
Windows XP hasta Windows 7. Está pensada para usarse con pantallas
táctiles y capturar dibujos directamente de esta forma, también puede insertar
imágenes y texto; los documentos generados tienen extensión jnt.
WordPad es un procesador de textos básico que se incluye en casi todas las
versiones de Microsoft Windows desde Windows 95 en adelante. Es más
avanzado que el Bloc de notas pero más sencillo que el procesador de textos
de Microsoft Works y Microsoft Word.
Críticas y controversias[editar]
Microsoft fue demandado por el gobierno de Estados Unidos durante el año 1998
por competencia desleal, y especialmente por la inclusión del navegador Internet
Explorer en su versión Windows 95.30 Tras esta denuncia, la pena le conllevó a
Microsoft lanzar una versión de Windows 95 sin su navegador de Internet.
En 2000 Windows ME se convirtió en un blanco de críticas debido a sus
constantes fallos del sistema, que terminaban con un pantallazo azul en la
mayoría de los casos, además de consumir mayores recursos de lo que se
decía. PC World incluso posicionó a Windows ME el cuarto "peor producto
tecnológico" de la historia en el artículo «Top 25 de los peores productos
tecnológicos».
En 2004 Microsoft lanzó una campaña, llamada «Vayamos a los hechos», en la
que mostraba cientos de empresas conocidas que migraron de GNU/Linux a
Windows Server y aumentaron su productividad y otro tipo de comparativas, 31
aunque la cerró poco después, en 2007.32 Los defensores de GNU/Linux
desarrollaron su propio estudio argumentando que, en contra de uno de los
reclamos de Microsoft, GNU/Linux tiene menores costos administrativos
que servidores basados en Windows.33 Otro estudio realizado por el Yankee
Group afirma que la actualización desde una versión de Windows Server a otra
plataforma tiene un costo inferior al de cambiar de GNU/Linux a Windows Server. 34
Véase también[editar]
Comparación de sistemas operativos
Lista de sistemas operativos
Microsoft
Contenido relacionado:
Arquitectura de Windows NT
Componentes relacionados de Microsoft Windows
Explorador de Windows
Microsoft Surface
Windows Genuine Advantage
Windows Media
Windows Phone
Wintel
Microsoft Windows
por
Margaret Rouse, [Link]
Windows es el sistema operativo insignia de Microsoft, el estándar de
facto para las computadoras domésticas y de negocios. El sistema
operativo basado en una interfaz gráfica de usuario (GUI) fue introducido
en 1985 y se han liberado muchas versiones desde entonces, como se
describe a continuación.
Microsoft empezó con la asociación de Bill Gates y Paul Allen en 1975.
Gates y Allen co-desarrollaron Xenix (una versión de Unix) y también
colaboraron en un intérprete de BASIC para el Altair 8800. La compañía
fue incorporada en 1981.
Microsoft se hizo famoso con el lanzamiento de MS DOS, un sistema
operativo basado en texto guiado por la línea de comandos. DOS se
basaba principalmente en una propiedad intelectual comprada, QDOS.
Los sistemas operativos basados en GUI de la época incluían el Alto de
Xerox, liberado en 1979, y los sistemas LISA y Macintosh de Apple, que
llegaron más tarde. Los fanáticos de Microsoft se referían a estos
sistemas de forma derogatoria como WIMPs, porque representaban
"ventanas, iconos, mouse y menús desplegables (o punteros)".
Sin embargo, Bill Gates vio el potencial de los sistemas basados en GUI
tanto como Steve Jobs y por lo tanto comenzó su idea para un proyecto
que llamó Interface Manager. Gates pensó que podría llevar la interfaz
gráfica de usuario a las masas a un costo menor que el LISA de $9,000
dólares. El resto de Microsoft apoyó esta idea también, pero no estaban
satisfechos con el nombre. Irónicamente, a pesar de su desprecio al
acrónimo WIMPs, el equipo seleccionó Windows como el nombre del
nuevo sistema.
Con el desarrollo de Windows, Bill Gates, Paul Allen y Steve Ballmer
habían comenzado quizás la colaboración más influyente en la historia
del software de computadora. El sistema operativo Windows siempre ha
tenido competencia, algunos de los cuales han sido software libre, y
algunos otros han tenido una ventaja en el estilo. Sin embargo, ningún
otro sistema operativo es tan conocido por tantos usuarios de
computadoras de todo el mundo o tan consistentemente dominante en
cuota de mercado. Microsoft ha mantenido esta posición con un
constante despliegue de nuevas versiones a lo largo de los años para soportar
y aprovechar los avances en hardware.
Sin embargo, antes del primer lanzamiento del sistema, Steve Jobs y
Apple presentaron una demanda alegando que Windows robó a LISA.
Microsoft afirmó que ambos sistemas operativos se inspiraron en el Alto
de Xerox y que ésta era la fuente de sus similitudes. El asunto fue
resuelto con un acuerdo de que Windows 1.0 no usaría las tecnologías
debatidas, pero los términos quedaron abiertos para futuras versiones.
Versiones de Windows a través de los años
1985: Windows 1.0
Al igual que muchas de las primeras versiones, Windows 1.0, era
esencialmente un programa que funcionaba en la parte superior de DOS.
El sistema no fue lanzado hasta dos años después de su primer anuncio,
dando lugar a sugerencias de que Windows era vaporware y nunca
aparecería realmente. El lanzamiento fue un comienzo inestable para el
gigante de la tecnología, ya que se encontró que el propio software era
inestable. Sin embargo, la interfaz de ‘puntero y clic’ hace que los
equipos de cómputos sean más fáciles de usar para los principiantes de
las computadoras, que en ese momento describían a la gran mayoría de
los usuarios. La naturaleza fácil de usar del entorno de Windows también
alentó a los nuevos usuarios que podrían haber sido intimidados por una
interfaz de línea de comandos. Windows 1.0 ofrecía muchos de los bits
de interfaz gráfica de usuario comunes, como barras de desplazamiento
y botones "Aceptar".
1987: Windows 2.0-2.11
Windows 2.0 era más rápido, más estable y tenía más en común aún con
LISA y futuras versiones de Windows. El sistema presentó el panel de
control y ejecutó las primeras versiones de Excel y Word. La memoria
extendida fue soportada y actualizada para la liberación del procesador
80386 de Intel. Fue durante este tiempo que Microsoft se convirtió en el
mayor proveedor de software del mundo, así como las computadoras se
estaban convirtiendo en algo más común. El hecho de que los sistemas
Windows fueran fáciles de usar y relativamente asequibles fue sin duda
un factor que contribuyó al creciente mercado de las PC.
1990: Windows 3.0
Windows 3.0 tuvo un gran éxito en la versión inicial. El sistema soportaba
16 colores, y con esta adaptación la interfaz comenzó a parecerse más
estrechamente a las versiones del futuro. Windows 3.0 fue más rápido,
siendo más optimizado para el 386. El sistema también incluía los juegos
casuales familiares a la mayoría de los usuarios de Windows: Solitario,
Minesweeper y Corazones. Sin embargo, cualquier juego más pesado
todavía se ejecuta directamente en MS DOS, en lugar de hacerlo a
través de Windows, que sigue funcionando en la parte superior de DOS.
Salir a DOS significaba que los juegos tenían acceso directo al hardware
y también acceso a los recursos del sistema que Windows habría atado.
Tan popular era esta versión que Microsoft decidió liberar Windows 3.1
como un sub-lanzamiento pagado. Las características de Windows 3.1
incluían compatibilidad con fuentes TrueType y redes peer-to-peer.
1993: Windows NT
La versión de Windows NT marcó la finalización de un proyecto paralelo
para construir un nuevo SO avanzado. De pie antes las "nuevas
tecnologías", NT era de 32 bits y tenía una capa de abstracción de
hardware. DOS podría encontrarse por separado a través del símbolo del
sistema pero no estaba ejecutando Windows en sí. NT era un SO serio
para las estaciones de trabajo, no solo una versión diseñada para los
usuarios caseros. El sistema incluyó, sin embargo, la primera aparición
del botón de inicio.
1995: Windows 95
Windows 95 fue un éxito de ventas enorme, el sistema de avance de
Microsoft y uno que introdujo a un gran número de personas en todo el
mundo a las computadoras e internet. La publicidad utilizó la
canción "Start Me Up" de los Rolling Stones para celebrar el lanzamiento
del botón de inicio para las masas.
Windows 95 facilitó la instalación de hardware con plug and play.
También trajo más colores, capacidades multimedia mejoradas y soporte
de red TCP/IP. Direct X comenzó a hacer posible juegos de Windows
para juegos con más demanda de recursos.
1998: Windows 98
Windows 98 mejoró la velocidad y el soporte de hardware plug-and-play.
El soporte para USB y el lanzamiento rápido hicieron su primera
aparición. Los juegos de DOS comenzaron a desaparecer a medida que
los juegos de Windows mejoraban. Hacia el final, sin embargo, el sistema
fue cada vez más plagado de malware, una tendencia que ha crecido en
las últimas etapas de la vida de los sistemas de Windows.
Windows 98 expresó la creencia de Microsoft de que los usuarios quieren
y deberían tener una visión global de sus recursos potenciales y que la
tecnología Web debería ser una parte importante de la interfaz de
usuario. Aunque la inclusión del propio navegador web de Microsoft en el
escritorio del usuario fue uno de los temas que definieron el juicio
antimonopolio del Departamento de Justicia de Estados Unidos contra
Microsoft en los años noventa, Windows 98 fue lanzado como estaba
planeado, con su navegador integrado.
Dato divertido: Bill Gates encontró la pantalla azul de la muerte
(BSOD) cuando demostró Windows 98 en la feria comercial de Comdex.
2000: Windows ME
Windows ME (Millennium Edition) fue el último uso de la base de código
de Windows 95. ME fue mal recibido. Su característica más notable fue la
restauración del sistema. Muchos encontraron el código excesivamente
extendido del sistema operativo y las vulnerabilidades resultantes
hicieron sus computadoras inestables, por lo que se requería restaurar el
sistema. ME fue aceptado comúnmente como peor versión de Windows
hasta la fecha y reconocido como un error por Steve Ballmer y Microsoft.
Según algunos críticos, ME significaba la "edición del error" (Mistake
Edition).
Sin embargo, en el mismo año se lanzó el software profesional Windows
2000. Este software mucho más robusto y actualizado, basado en
Windows NT, proporcionó un entorno comparativamente estable. El
disgusto con ME provocó que algunos usuarios domésticos instalaran
Windows 2000 por su mayor fiabilidad. Se aumentó la compatibilidad
con plug and play en NT, facilitando aún más el uso doméstico de
Windows 2000.
2001: Windows XP
Windows XP fue lanzado como el primer sistema basado en NT con una
versión dirigida directamente al usuario doméstico. XP fue calificado
altamente tanto por usuarios como por críticos. El sistema mejoró la
apariencia de Windows con temas y ofreció una plataforma estable. XP
fue también el final del juego en DOS, para todos los intentos y
propósitos. Direct X habilitó funciones en juegos 3D con los que OpenGL
tuvo problemas para mantenerse al día, a veces. Las versiones futuras
de Windows se compararían con XP para el rendimiento de juego
durante algún tiempo. XP ofreció el primer soporte de Windows para la
computación de 64 bits. Sin embargo, la computación de 64 bits no
estaba muy bien soportada en XP, y también carecía de controladores o
mucho software para ejecutar.
Como resultó, Windows XP fue una de las versiones más populares. En
combinación con la impopularidad del sistema Vista –el siguiente en ser
liberado–, lo que eventualmente conduciría a problemas relacionados
con la actualización
2006: Windows Vista
Windows Vista fue un lanzamiento altamente difundido que ocupó un
montón de recursos de desarrollo y de la computadora en la apariencia.
La dedicación de recursos podría haber resultado del hecho de que XP
estaba empezando a parecer arcaico en comparación con Mac OS. Vista
tenía efectos visuales interesantes, pero era lento para iniciar y
ejecutarse. La versión de 32 bits, en particular, no habilitaba suficiente
memoria RAM para que el hambriento sistema operativo funcionara
rápidamente.
Los usuarios todavía tímidos para abrazar 64 bits se perdieron en una
experiencia ligeramente mejor, que se ofreció junto con una inversión en
más de 4 GB de RAM. Los jugadores encontraron las características
exclusivas añadidas en Direct X 10 sólo ligeramente tentadoras en
comparación con la velocidad de XP.
Los derechos de licencia y la activación de Windows se hicieron más
estrictos, mientras que el control de usuario de los trabajos internos se
hizo menos accesible.
Microsoft perdió cuota de mercado en este tiempo ante las variantes de
Apple y Linux por igual. Las fallas de Vista, junto con el hecho de que
muchas computadoras más antiguas carecían de los recursos para
ejecutar el sistema, llevaron a muchos usuarios domésticos y de
negocios a permanecer con XP en lugar de actualizarse. Esa situación
iba a ser problemática cuando Microsoft anunció que el fin de vida de XP
se produciría en abril de 2014.
2009: Windows 7
Windows 7 se basa en el kernel Vista. Windows 7 tenía las imágenes de
Vista con una mejor puesta en marcha y velocidad del programa. Era
más fácil en la memoria y más fiable. Para muchos usuarios finales, los
cambios más grandes entre Vista y Windows 7 son tiempos de arranque más
rápidos, nuevas interfaces de usuario y la adición de Internet Explorer 8.
El sistema juega juegos casi tan bien como XP. Con una verdadera
compatibilidad de 64 bits y una creciente separación en las funciones de
Direct X que no se implementaron en XP, ese pequeño beneficio de
diferencia de rendimiento se erosionó aún más. Windows 7 se convirtió
en el sistema operativo más utilizado en internet y también el más
utilizado para juegos de PC.
2012: Windows 8
Windows 8 fue lanzado con una serie de mejoras y la nueva interfaz de
usuario de Metro. Windows 8 aprovecha mejor el procesamiento
multinúcleo, las unidades de estado sólido (SSD), las pantallas táctiles y
otros métodos de entrada alternativos. Sin embargo, los usuarios lo
encontraron incómodo, como cambiar entre una interfaz hecha para una
pantalla táctil y otra hecha para un ratón –y ninguna de estas opciones
totalmente adecuada para el propósito. En general, Windows 7 conservó
el liderazgo del mercado. Incluso después de la interfaz de usuario de
Microsoft y otras actualizaciones en 8.1, Windows 8 no sólo arrasó con
los números de los usuarios de Windows 7, sino también los de XP en
2014.
2015: Windows 10
Microsoft anunció Windows 10 en septiembre de 2014, saltándose a
Windows 9. La versión 10 incluye el menú de inicio, que estaba ausente
de Windows 8. Una característica de diseño responsivo llamada
Continuum adapta la interfaz dependiendo de si se utiliza la pantalla
táctil, o el teclado y el ratón, para introducir las indicaciones. Nuevas
características como un botón de la parte posterior de la pantalla
simplifican la entrada del tacto. El sistema operativo está diseñado para
tener una interfaz consistente a través de dispositivos de usuario,
incluyendo PCs, portátiles, teléfonos y tabletas.
Computadora
Te explicamos todo sobre las computadoras, sus tipos, componentes y las características de
cada generación a lo largo de la historia.
Una computadora es capaz de procesar datos a gran velocidad y en grandes cantidades.
¿Qué es una computadora?
Un computador, computadora u ordenador es una máquina digital programable, de
funcionamiento electrónico, capaz de procesar grandes cantidades de datos a grandes
velocidades. Así obtiene información útil que luego presenta a un operador humano, o
transmite a otros sistemas mediante redes informáticas de distinto tipo.
La computadora es la herramienta más versátil, potente y revolucionaria que el ser
humano ha creado en su historia reciente. Representa el punto cumbre de la Revolución
industrial, científica y tecnológica que presenció el siglo XX después de la Segunda Guerra
Mundial.
Su presencia y popularización en nuestro tiempo no sólo cambió para siempre el modo de
procesar la información en el mundo, sino también la manera de trabajar y concebir el
trabajo, las formas de comunicarse a larga distancia, las formas de ocio, y muchas otras
áreas de la vida cotidiana.
Consisten fundamentalmente en un gran número de circuitos integrados, componentes de
apoyo y extensiones electrónicas. Sin embargo, las computadoras han cambiado
radicalmente a lo largo de su propia y rápida historia, pasando de ser enormes e incómodas
instalaciones, a ocupar un lugar tan pequeño como el bolsillo de nuestros pantalones, en el
caso de los teléfonos inteligentes.
La enorme cantidad de componentes de una computadora pueden agruparse en dos
categorías separadas, que son:
Hardware. La parte física y tangible del sistema, o sea, sus componentes eléctricos y
electrónicos, que cumplen con diversas funciones fundamentales, como la realización de
cálculos o la alimentación eléctrica del sistema. De algún modo equivaldría al “cuerpo” de
la computadora.
Software. La parte intangible, digital, abstracta, del sistema, que se ocupa de las
operaciones de tipo conceptual o representacional, normalmente dentro de un entorno
virtual simulado, esto es, dentro de una simulación que hace más amable la interacción
con el usuario. Esto abarca todo tipo de programas, desde los programas de base (como el
Sistema Operativo que mantiene andando el sistema) hasta las aplicaciones
posteriormente instaladas. Siguiendo la metáfora, equivaldría a la “mente” del
computador.
Ver también: Hardware y software
Tipos de computadora
Las mainframes llevan a cabo millones de cálculos y operaciones por segundo.
Existen muy diversos tipos de computador, atendiendo a rasgos como su tamaño, potencia
y utilidad. Entre ellos, destacan:
Supercomputadoras. Los aparatos de mayor potencia del mundo son, en realidad,
conjuntos de computadoras distintas integrados en una sola unidad, que pueden
potenciarse de manera exponencial. La supercomputadora más grande del mundo se
encuentra en la Universidad Nacional de Tecnología de Defensa de China, se llama Tianhe-
2 y puede realizar unos 33.48 mil billones de operaciones por segundo.
Mainframes. Se conocen también como macrocomputadoras, y suelen tener un gran
tamaño (al menos comparado con los computadores portátiles) y hallarse en habitaciones
cuidadosamente refrigeradas dentro de las grandes empresas o instituciones de un país,
en donde llevan a cabo millones de cálculos y operaciones por segundo, alimentando
redes y sistemas computarizados enteros con información.
Computadoras personales (PCs). Unidades destinadas al uso de un solo usuario a la vez,
permitiéndole realizar muy diversas tareas, entre ellas conectarse a una red informática y
enviar y recibir datos a altas velocidades. Poseen un microprocesador de potencia variable
y son el tipo de computadoras a los que podemos acceder comercialmente en cualquier
tienda de tecnología. Se les conoce también como computadoras de escritorio.
Computadores portátiles (laptops, netbooks). Aunque se trata en efecto de
computadoras personales, a este tipo de aparatos los listamos aparte porque se trata de
piezas físicamente ligeras, diseñadas para su uso en exteriores o para viajar con nosotros
en un maletín. Aunque poseen menos potencia que las PC, lo compensan en practicidad y
movilidad.
Tabletas y celulares. La generación más reciente de artefactos tecnológicos (gadgets) son
esencialmente computadoras, aunque destinadas a funciones distintas (generalmente más
lúdicas o de comunicaciones) y de un tamaño todavía menor a las portátiles. Los celulares
“inteligentes” son pequeñas pero potentes computadoras dedicadas a las
telecomunicaciones y la navegación por Internet, mientras que las tabletas son pequeñas
pantallas táctiles con funciones similares.
Partes de una computadora
A grandes rasgos, un sistema informático o computador se compone numerosos elementos
reunidos en tres conjuntos o partes:
Unidad Central de Procesamiento (CPU). CPU son las siglas en inglés de Central
Processing Unit, y ese es el nombre que recibe el “cerebro” de la computadora, o sea, su
núcleo lógico-electrónico. Allí tienen lugar las operaciones lógicas en los procesadores o
microprocesadores del sistema, y están físicamente dispuestas las unidades fijas de
memoria y de almacenamiento. Estas últimas se denominan “disco rígido” o “disco duro”,
y usada para contener información. A su vez, el CPU se compone de:
o La Unidad Aritmético-Lógica (ALU). Dedicada a la realización de las operaciones
lógicas, matemáticas o formales que sostienen el sistema.
o La Unidad de Control (UC). Encargada de la vigilancia del sistema y de garantizar
el funcionamiento continuo del mismo.
o Los registros. Que son la información que genera el funcionamiento del sistema, y
que sirve para procesos de feedback del sistema.
Memoria. La memoria es un espacio electrónico donde se almacena de manera temporal
la información que el sistema requiere para trabajar, por lo que se conoce también como
memoria de trabajo. Existen dos formas de memoria:
o Memoria de Acceso Aleatorio (RAM: Random Access Memory). Que consiste en
una secuencia de celdas de almacenamiento ocupada temporalmente por la
información de trabajo. Puede escribirse y reescribirse según se necesite. Al
apagar e iniciar el sistema, la RAM se reinicia por completo.
o Memoria de Sólo Lectura (ROM: Read Only Memory). Un espacio en el que viene
ya inscrita de fábrica la información mínima fundamental para que el ordenador
inicie sus operaciones, como el set up y la configuración mínima que da pie a los
procesos más complejos del software. Esta memoria puede leerse millones de
veces, pero no puede alterarse a voluntad.
Dispositivos periféricos. Los periféricos son los componentes no centrales de una
computadora, o sea, sus accesorios o aditamentos, que pueden cambiarse o sustituirse sin
alterar el núcleo de operaciones del sistema. Estos dispositivos permiten ingresar
(entrada) o extraer (salida) información del sistema, o realizar ambas operaciones a la vez
(entrada-salida). Son ejemplos de periféricos los monitores, las impresoras, los teclados,
los parlantes, etc.
Sigue en: Componentes de una computadora
Evolución de las computadoras
En la cuarta generación se logró la miniaturización de los circuitos integrados.
La historia de las computadoras es bastante reciente. Sin embargo, pueden considerarse
como antecedentes numerosos aparatos no digitales e incluso no electrónicos para lidiar
con grandes volúmenes de información: el ábaco, o los aparatos mecánicos para calcular
que se empleaban antaño, son ejemplo de ello.
Además, debe considerarse lo antiguas de las bases conceptuales de todo sistema
informático, como la matemática y los algoritmos (830 d.C.), o las reglas de cálculo (1620
d.C.). Sin embargo, se considera a la “máquina analítica” de Charles Babbage (1833) y la
máquina tabuladora de Hermann Hollerith (1890) como los primeros computadores.
Sin embargo, no eran equiparables aún a los sistemas que comenzaron a aparecer en el siglo
XX. Liderados por el matemático inglés Alan Turing (1912-1954), durante la Segunda
Guerra Mundial diversos científicos aliados colaboraban en el desarrollo de sistemas
automáticos para descifrar los códigos militares enemigos.
El bando contrario también comenzó a implementar esta estrategia, con la creación de la
calculadora automática Z1, del ingeniero alemán Konrad Zuse (1910-1995), a la que
seguirían las versiones Z2, Z3 y Z4, cuyo éxito pasó inadvertido debido a la guerra.
La primera computadora electromecánica, la Harvard Mark I, nació en 1944, fruto de
la empresa estadounidense IBM, y enseguida aparecieron sus sucesoras Colossus Mark I y
Colossus Mark 2. A partir de entonces, cinco generaciones de computadoras se han
desarrollado sucesivamente, logrando cada vez mayores capacidades:
La primera generación. Aparecida en 1951, se componía de voluminosas máquinas de
cálculo dotadas de bulbos, finos tubos de mercurio líquido y tambores magnéticos. Los
operadores debían ingresar los programas de control mediante colecciones de tarjetas de
cartón perforadas, en las que se cifraba en código binario (presencia o ausencia del
agujero) la información. El punto de inicio de esta generación es la comercialización del
computador UNIVAC, que pesaba unas 30 toneladas y requería una sala completa.
La segunda generación. La primera revolución en el mundo de los computadores la
produjo la introducción en 1959 de los transistores, que sustituyeron a las válvulas al vacío
y permitieron mayor rapidez de cómputo, menor tamaño físico del sistema y menores
necesidades de ventilación y enfriamiento. Estas máquinas se beneficiaron de la invención
de COBOL, el primer lenguaje de programación de la historia.
La tercera generación. Surgida a partir de la invención en 1957 de los circuitos integrados
(en pastillas de silicio) y su introducción al mundo de la informática en 1964. Esto brindó
mayores capacidades logísticas y permitió flexibilizar el uso del computador a través de la
multiprogramación, lo cual brindó gran versatilidad a la industria de las computadoras.
La cuarta generación. Gracias a la miniaturización de los circuitos integrados, la invención
del procesador y microprocesador tuvo lugar en 1971 y con ella una nueva revolución
informática. Los chips y microchips resultaron ser baratos, potentes y eficaces, y su
tecnología de semiconductores permitió el desarrollo de computadores pequeños,
prácticos y potentes. Los computadores comerciales se convierten ya en parte indisociable
de la vida y el trabajo, y comienzan sus primeras conexiones abiertas en red, que darán en
1990 origen a la Internet.
La quinta generación. A partir de este punto, se hace muy difícil identificar propiamente
las generaciones de computadoras, ya que hay cambios revolucionarios sucediéndose
constantemente. Pero la aparición de veloces soportes de información (CD, DVD, Flash
drive), de nuevos protocolos de interconexión, y mucho después de los teléfonos
inteligentes, de las tabletas y de todo un mundo informático táctil y Wireless (sin cable),
son claros indicios de que a partir de la década del 2000 una nueva generación de
computadoras inundó los mercados.
¿Cuáles serán los rasgos de la sexta generación? Aún no lo sabemos. Hay quienes señalan
hacia los computadoras cuánticos, o hacia la inteligencia artificial, como sus posibles
caminos futuros, pero únicamente el tiempo dirá si tenían razón.
Más en: Generaciones de las computadoras
Compartir
Referencias
“Computadora” en Wikipedia.
“La evolución del computador” en Universidad Libre (Colombia).
“Computadora y sus partes” (video) en IDEA Escuela de Negocios (Perú).
“Las partes del computador” en GCF Global.
“What are the Parts of a Computer?” en Khan Academy.
“Computer” en The Encyclopaedia Britannica.
¿Cómo citar?
"Computadora". Autor: Equipo editorial, Etecé. De: Argentina. Para: [Link].
Disponible en: [Link] Última edición: 26 de septiembre de
2020. Consultado: 25 de noviembre de 2021
Sobre el autor
- Fuente: [Link]
Las partes del computador
El computador de escritorio cuenta con varias partes que son
necesarias para su funcionamiento, entre ellas están la torre,
la pantalla, el ratón y el teclado. En el video que encontrarás a
continuación, verás la explicación detallada de cada una de
ellas:
La torre
Es una carcasa de metal o plástico, y quizá, la parte más
importante del computador. En su interior se encuentran
componentes que hacen que todas las otras partes cumplan
su función. Es el equivalente al cerebro del computador.
En las partes de adelante y atrás tiene puertos y botones
donde puedes conectar más partes o encender y apagar el
equipo. Su ubicación cambia según el modelo del equipo.
Parte frontal de la torre
Botón de encendido:
Este botón sirve para encender y apagar tu equipo. Muchos
computadores tienen modo de ahorro de energía opciones
como sueño, hibernación y reposo.
Unidad de CD/DVD-ROM:
Le permite al computador leer y grabar CD y DVD. Las
unidades más recientes pueden leer y escribir en discos Blu-
Ray para videos en alta definición. Un típico disco Blu-Ray
almacena más cantidad de datos que los DVD o CD.
Expulsar unidad de DVD-ROM:
Este botón expulsa o abre el CD o DVD de la unidad.
Puertos USB:
Sirven para conectar el ratón, teclado, impresora, cámara
digital y más; se encuentran en la parte delantera y trasera del
equipo.
Entrada y salida de audio:
Para conectar fácilmente altavoces, micrófonos y auriculares,
muchos equipos incluyen puertos de audio en el frente de la
caja de la computadora.
Las partes de una computadora
por Danilo
La computadora es, por mucho, una de las invenciones que más beneficios le han
dado a la humanidad. Su enorme capacidad para procesar datos la convierten en
una parte fundamental en el desarrollo de la ciencia.
¡Te invitamos a leer las partes de la computadora actualizado al 2019!
Pero… ¿qué es lo que hace posible que esta poderosa máquina electrónica
funcione? El hardware en combinación con el software hacen que esto sea posible.
El hardware de una computadora se refiere a todos esos elementos que son
tangibles en una computadora, mientras que el software son aquellos programas,
instrucciones y reglas informáticas que hacen posible la ejecución de tareas
específicas en un ordenador.
Este artículo se enfocará más en los dispositivos de hardware que son
“indispensables” para el correcto funcionamiento de una computadora, los cuales
son:
o Teclado
o Unidad Central de Proceso (CPU, por sus siglas en ingles)
o Monitor
o Ratón (Mouse)
o Disquetera (Floppy)
o CD-ROM
El teclado
Es el dispositivo que le brinda la posibilidad al usuario introducir datos para que
después puedan ser interpretados y procesados por la CPU. El aspecto de un
teclado de ordenador es bastante similar al de una máquina de escribir y
actualmente su clasificación está conformada de la siguiente manera: teclado XT,
teclado AT, teclado expandido, teclado Windows, teclado ergonómico y teclado
inalámbrico.
Cabe destacar que en la mayoría de los sistemas operativos modernos se pueden
utilizar teclados virtuales (en pantalla ó monitor) que pueden ser operados con el
ratón, brindándole la posibilidad al usuario de simular el funcionamiento de un
teclado real.
Unidad Central de Proceso
Comúnmente conocido como microprocesador, es el encargado de procesar los
datos contenidos en los programas e interpretar las instrucciones del usuario. La
evolución de la tecnología en este rubro ha sido tan grande que actualmente
existen microprocesadores con doble núcleo que, básicamente son dos
procesadores en uno mismo, lo que les permite aumentar considerablemente la
capacidad de procesamiento de datos de una forma más rápida.
A pesar de que la definición de CPU en los últimos años ha sido bastante clara,
comúnmente se le llama CPU a todo el «cuadro» en donde están ensamblados
todos los componentes y tarjetas (memoria RAM, tarjeta de video, tarjeta de
sonido, tarjeta madre, etc.) de una computadora.
Monitor
Es el dispositivo que, por medio de una interfaz, permite al usuario
poder visualizar los datos previamente procesados por el CPU. La unidad mínima
que se puede representar en un monitor es denominada Píxel, que se puede definir
como cada uno de los puntos que conforman una imagen digital. Actualmente lo
último en tecnología son los monitores de cristal líquido (LCD, por sus siglas en
ingles).
Ratón
En informática, un mouse ó ratón es el dispositivo que, al igual que el teclado,
permite enviarle instrucciones a una computadora mientras este interactúa con
una interfaz gráfica. Hoy en día es un dispositivo imprescindible en un ordenar,
pero, se prevé que en un futuro no muy lejano este dispositivo desaparezca,
dejándole esta tarea a los ojos humanos.
Disquetera
Es la unidad en donde se lleva a cabo la lectura de los discos flexibles ó disquetes,
un medio de almacenamiento de datos. En la actualidad, la mayoría de las
computadoras de reciente modelo ya ni siquiera toman en cuenta a este
dispositivo. ¿Por qué? La poca confiabilidad en estos dispositivos fue una de las
primordiales razones. Y la verdad es que los disquetes están desde hace tiempo,
quieran o no, obsoletos.
CD-ROM
Disco Compacto de Memoria de Sólo Lectura (CD-ROM, por sus siglas en ingles) es
un sistema de almacenamiento masivo que permite el almacenamiento de 680
Mb. Al referirse a “sólo lectura”, quiere decir que solo se puede grabar en este
medio una sola vez. Los fabricantes de ordenadores, de la misma manera que le
paso a las disqueteras, están tomando la decisión de omitir en sus equipos la
integración de los lectores de CD para dejarle el camino libre al DVD del cual
probablemente hablemos de el más adelante.
Finalizando
Se podría decir que estos son los dispositivos de hardware más indispensables
para que una computadora funcione (sin olvidarnos de las memorias RAM, la
tarjeta madre y otros elementos un poco más técnicos). Pero existe una gran
cantidad de dispositivos de hardware que facilitan la tareas día a día a los
diferentes tipos usuarios que existen. Al avanzar la tecnología a pasos tan
agigantados, que no nos sorprenda que, en unos años, algunos de estos
dispositivos se consideren obsoletos.
Artículo relacionado: Las partes de una computadora (segunda parte)
Ofimática
Ir a la navegaciónIr a la búsqueda
Equipos de computación Apple
Ofimática (acrónimo de oficina y de informática), a veces también
llamado burótica,1 designa al conjunto de técnicas, aplicaciones y herramientas
informáticas que se utilizan en funciones de oficina para optimizar, automatizar,
mejorar tareas y procedimientos relacionados. Las herramientas ofimáticas
permiten idear, crear, manipular, transmitir o almacenar la información necesaria
en una oficina.
Comenzó a desarrollarse en la década de los 70, con la masificación de los
equipos de oficina que comienzan a incluir microprocesadores, dejándose de usar
métodos y herramientas por otras más modernas.
Índice
1Software ofimáticas que existen en el mercado
2Ofimática en línea
3Véase también
4Referencias
Software ofimáticas que existen en el mercado [editar]
1. Procesamiento de textos
2. Hojas de cálculo
3. Herramientas de presentación
4. Base de datos
5. Utilidades: agendas, calculadoras, etc.
6. Programas de correo electrónico, correo de voz, mensajeros.
7. Herramientas de reconocimiento y síntesis del habla
8. Suite ofimática: paquete de múltiples herramientas ofimáticas.
Ofimática en línea[editar]
Este tipo de aplicaciones permiten crear y compartir el trabajo en línea. Los
documentos se pueden crear desde cero o importarlos a partir de archivos de
texto, presentaciones y hojas de cálculo existentes. Una de las principales
aportaciones de estas herramientas es que permiten compartir o editar
documentos entre varios usuarios (o simplemente visualizarlos) en tiempo real.
La ofimática con red de área local permite a los usuarios transmitir datos, correo
electrónico e incluso voz por la red. Todas las funciones propias del trabajo en
oficina, incluyendo dictados, mecanografía, archivado, copias, fax, télex,
microfilmado y gestión de archivos, operación de los teléfonos y la centralita, caen
en esta categoría. La ofimática fue un concepto muy popular en los 70 y 80,
cuando se popularizaron los ordenadores de sobremesa. 2
Ejemplos de herramientas de ofimática
1. Procesamiento de textos.
2. Desarrollo de hojas de cálculo.
3. Herramientas de presentación multimedia.
4. Bases de datos.
5. Agendas.
6. Equipos de Fax.
7. Calculadoras.
8. Teléfonos.
9. Impresora.
10. Programas de E-Mail
11. Softwares de programación.
12. Presentaciones multimedia.
13. Programas de correo de voz.
14. Programas de mensajería instantánea.
15. Herramientas de reconocimiento de voz.
Fuente: [Link]
#ixzz7DHCuwwJ8