0% encontró este documento útil (0 votos)
14 vistas96 páginas

Computación

Cargado por

radhames
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
14 vistas96 páginas

Computación

Cargado por

radhames
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Introducción

Hablar de Informática o Computación , es hablar de un tema apasionante en todos los


sentidos, nos hace soñar sobre el futuro, nos hace discutir sobre las tecnologías apropiadas
y sus costos, las políticas para desarrollar una industria, institución y un país. Pero
fundamentalmente hablar de Computación o Informática es hablar de la necesidad
de recursos humanos capacitados, de los cambios en la forma de trabajar y los nuevos
empleos, de las nuevas posibilidades de desarrollo individual y hasta de aprendizaje con la
inserción de la computadora como herramienta en la Educación; hablar de computación es
hablar de educación y de innovación.
Promover el uso de las TIC en las instituciones y en el hogar, es despertar el instinto del
conocimiento y la innovación

Informática o Computación

Computación es sinónimo de informática. Como tal, se refiere a la tecnología desarrollada


para el tratamiento automático de la información mediante el uso computadoras u
ordenadores.
En este sentido, la computación es también un área de conocimiento constituida por
disciplinas relativas a las ciencias y la tecnología, para el estudio, desde el punto de vista
teórico y práctico, de los fundamentos del procesamiento automático de datos, y su
desarrollo, implementación y aplicación en sistemas informáticos.
La palabra computación proviene del latín computatĭo, computatiōnis, que deriva del
verbo computāre, cuyo significado es ‗enumerar cantidades‘. Computación, en este
sentido, designa la acción y efecto de computar, realizar una cuenta, un cálculo
matemático. De allí que antiguamente computación fuese un término usado para referirse a
los cálculos realizados por una persona con un instrumento expresamente utilizado para tal
fin (como el ábaco, por ejemplo) o sin él.

Computación en la nube
Computación en la nube, servicios en la nube o cloud computing, hace referencia a
un concepto de servicios informáticos que ofrece, de manera paga o gratuita, a usuarios
ubicados en cualquier parte del mundo y con conexión a internet, programas o aplicaciones
de uso personal o empresarial que se encuentran alojados en internet (también denominado
"nube"). Hoy en día, este concepto es muy común, y lo encontramos en los servicios de
correo electrónico, redes sociales o un software como Microsoft Office 365, que no
requieren ser instalados en una computadora, sino que pueden usarse directamente en la
nube.

Computación ubicua
La computación ubicua es un concepto de tecnología futurista, desarrollado inicialmente
por Mark Weiser, que pretende la integración de los sistemas informáticos en todas las
facetas de la vida humana de una manera tan natural, bajo mecanismos de interacción tan
intuitivos, que pueda decirse que forman parte del entorno de las personas de una forma
prácticamente invisible, por ello es también conocida como inteligencia ambiental. Como
la palabra lo indica, la computación ubicua está en todos los aspectos de la vida cotidiana.
Situaciones como ir de compras, preparar café, obtener una dirección o información del
tráfico, estarían todas integradas por dispositivos computacionales interconectados con el
objetivo de facilitar las tareas cotidianas a las personas, creando una revolución en nuestro
modo de vida.

Computación cuántica
La computación cuántica es un concepto que propone la aplicación de las teorías de la
física cuántica en la informática, con el objetivo de crear computadoras con la capacidad
de procesar mayores cantidades de información y con más rapidez que las computadoras
tradicionales. En lugar de usar bits, emplea qubits (o quantum bits), lo cual da lugar a
nuevas puertas lógicas y, como consecuencia, a nuevos algoritmos. Esta tecnología, surgida
en los años ochenta, aún se encuentra, sin embargo, en desarrollo.

Computación gráfica
La computación gráfica es el área de la informática dedicada a la generación, diseño y
presentación de imágenes visuales en una computadora, ya sean de naturaleza
bidimensional o tridimensional, ya se trate de animaciones o de captura, creación y edición
de videos, con aplicación no solo en todos los campos del saber humano, sino también en el
entretenimiento, el arte o las operaciones bélicas.

Computación distribuida
La computación distribuida es un concepto que se refiere al empleo de una amplia red de
computadoras interconectadas para la realización de tareas determinadas. En este
sentido, este sistema, también conocido como informática en malla, aprovecha los
recursos disponibles en un gran número de computadores personales y los pone a trabajar
de manera coordinada y conjunta para resolver problemas informáticos de gran magnitud,
como si se tratara de una supercomputadora.

Breve Historia de la Informática o Computación


El origen de las máquinas de calcular está dado por el ábaco chino, éste era una tablilla
dividida en columnas en la cual la primera, contando desde la derecha, correspondía a las
unidades, la siguiente a la de las decenas, y así sucesivamente. A través de sus movimientos
se podía realizar operaciones de adición y sustracción.
Otro de los hechos importantes en la evolución de la informática lo situamos en el siglo
XVII, donde el científico francés Blas Pascal inventó una máquina calculadora. Ésta sólo
servía para hacer sumas y restas, pero este dispositivo sirvió como base para que el
alemán Leibnitz, en el siglo XVIII, desarrollara una máquina que, además de realizar
operaciones de adición y sustracción, podía efectuar operaciones de producto y cociente.
Ya en el siglo XIX se comercializaron las primeras máquinas de calcular. En este siglo el
matemático inglés Babbage desarrolló lo que se llamó "Máquina Analítica", la cual podía
realizar cualquier operación matemática. Además disponía de una memoria que podía
almacenar 1000 números de 50 cifras y hasta podía usar funciones auxiliares, sin embargo
seguía teniendo la limitación de ser mecánica.
Recién en el primer tercio del siglo XX, con el desarrollo de la electrónica, se empiezan a
solucionar los problemas técnicos que acarreaban estas máquinas, reemplazándose
los sistemas de engranaje y varillas por impulsos eléctricos, estableciéndose que cuando
hay un paso de corriente eléctrica será representado con un *1* y cuando no haya un paso
de corriente eléctrica se representaría con un *0*.
Con el desarrollo de la segunda guerra mundial se construye el primer ordenador, el cual
fue llamado Mark I y su funcionamiento se basaba en interruptores mecánicos.
En 1944 se construyó el primer ordenador con fines prácticos que se denominó Eniac.
En 1951 son desarrollados el Univac I y el Univac II (se puede decir que es el punto de
partida en el surgimiento de los verdaderos ordenadores, que serán de acceso común a la
gente).

EDVAC
(Electronic Discrete Variable Automatic Calculator)

En 1946 se llegó a un acuerdo


para que se construyera en
la universidad de Pennsylvania,
y bajo la tutela de , una
gran computadora: la EDVAC.
En un principio se barajaron
diversos diseños, pero finalmente
se decidió por una computadora
con sistema binario, donde la
suma, la resta y la multiplicación
eran automáticas, la división
programable y tenía una
capacidad de 1000 palabras.

EDVAC
El EDVAC estaba organizado en seis partes principalmente:
1. Unidad de lectura-grabadora, que era la encargada de la lectura, grabación y
borrado de las cintas magnéticas.
2. Unidad de control, que contenía los botones de operación, las lámparas
indicadoras, los interruptores de control y un osciloscopio para
el mantenimiento de la computadora.
3. Unidad de "reparto", que se encargaba de decodificar las instrucciones,
emitía señales de control hacia el resto de unidades y almacenaba la instrucción
que se debía ejecutar en cada momento.
4. Memoria de alta velocidad, que consistía en dos unidades iguales, cada una
contenía 64 líneas de 8 palabras cada una.
5. Computadora, la unidad que realizaba las operaciones básicas aritméticas. La
unidad aritmética estaba por duplicado, las operaciones se hacían en ambas
unidades y se comparaban los resultados, interrumpiéndose la ejecución si no
eran idénticos.
6. Reloj, que emitía pulsos de reloj a intervalos de 1 µsegundo.

Diseño del EDVAC


(pinche en la foto para verla en grande)
El tiempo medio de ejecución por instrucción era:
1. Suma en 864 µsegundos.
2. Resta en 864 µsegundos.
3. Comparación en 696 µsegundos.
4. Multiplicación y redondeo 2880 µsegundos.
5. División y redondeo 2928 µsegundos.
6. Multiplicación exacta en 2928 µsegundos.
7. División exacta en 2928 µsegundos.
8. Suma en coma flotante 960 µsegundos.
9. Resta en coma flotante 960 µsegundos.

El EDVAC pesaba aproximadamente 7850 kg y tenía una superficie de 150 m2.


EDVAC

ENIAC
(Electronica Numeral Integrator and Computer)

El ENIAC nació en
1943, aunque no se
terminó de construir hasta
1946, fue
un contrato entre el
ejército de [Link] y sus
desarrolladores John
Mauchly y John Presper
Eckert, llamado
"Proyecto PX" con una
subvención de $500000. En
1944 se unió al
proyecto John von
Neumann.

ENIAC
El ENIAC fue un ordenador electrónico digital con fines generales a gran escala.
Fue en su época la máquina más grande del mundo, compuesto de unas 17468 tubos
de vacío, esto producía un problema ya que la vida media de un tubo era de unas
3000 horas por lo que aproximadamente cada 10 minutos se estropeaba un tubo y no
era nada sencillo buscar un tubo entre 18000, consumiéndose gran cantidad de
tiempo en ello. Tenía dos innovaciones técnicas, la primera es que combina diversos
componentes técnicos (40000 componentes entre tubos, condensadores, resistencias,
interruptores, etc.) e ideas de diseño en un único sistema que era capaz de realizar
5000 sumas y 300 multiplicaciones por segundo. La segunda era la fiabilidad de la
máquina, para resolver el problema de los tubos de vacío se aplicaron unos estrictos
controles de calidad de los componentes utilizados. Salió a la luz pública el 14 de
febrero de 1946, apareciendo en la prensa con calificativos como
"cerebro electrónico", "Einstein mecánico" o "Frankenstein matemático", como por
ejemplo en el diario Newsweek.

Articulo en publicado en el Newsweek


sobre el ENIAC
(pinche en la foto para verla en grande)
El ENIAC estaba dividido en 30 unidades autónomas, 20 de las cuales eran
llamada acumuladores. Cada acumulador era una máquina de sumar 10 dígitos a
gran velocidad y que podía almacenar sus propios cálculos. El contendido de un
acumulador se visuliazaba externamente a través de unas pequeñas lámparas que
producían un efecto visual muy explotado luego en las películas de ciencia ficción. El
sistema utilizaba números decimales (0 - 9). Para acelerar las operaciones aritméticas
también tenía un multiplicador y un divisor. El multiplicador utilizaba
una matriz de resistencia para ejecutar las multiplicaciones de un dígito y fue
diseñado con un circuito de control adicional para multiplicar sucesivos dígitos. El
multiplicador y el multiplicando estaban almacenados en un acumulador cada uno.
Mediante una lectora de tarjetas perforadas y una perforadora se producía la
lectura y escritura de datos.

Mujeres programando el ENIAC


El ENIAC era controlado a través de un tren de pulsos electrónicos. Cada unidad
del ENIAC era capaz de generar pulsos electrónicos para que otras unidades
realizaran alguna tarea, por eso los programas para el ENIAC consistían en unir
manualmente los cables de las distintas unidades para que realizaran la secuencia
deseada. Por eso programar el ENIAC era un trabajo arduo y dificultoso. Como las
unidades podían operar simultáneamente el ENIAC era capaz de realizar cálculos en
paralelo.
Había una unidad llamada "unidad cíclica", que producía los pulsos básicos
usados por la máquina. También había tres tablas de funciones y constantes que
transmitían los números y funciones elegidos manualmente a las unidades para
realizar las operaciones. Una suma la realizaba en 0.2 milisegundos (5000 sumas por
segundo), una multiplicación de dos números de 10 dígitos la realizaba en 2.8
milisegundos, y una división como mucho la realizaba en 24 milisegundos.

Remplazar una válvula de vacío estropeada


suponía encontrarla entre 18000
Nunca pudo funcionar las 24 horas todos los días, y normalmente se ejecutaban
dos veces un mismo cómputo para comprobar los resultados y se ejecutaba
periódicamente cálculos cuyos resultados se conocían previamente para comprobar
el correcto funcionamiento de la máquina. Aunque en un principio el ENIAC estaba
construido para fines militares, al finalizar la Segunda Guerra Mundial se utilizó
para numerosos cálculos de investigaciones científicas. El ENIAC estuvo en
funcionamiento hasta 1955 con mejoras y ampliaciones, y se dice que durante su vida
operativa realizó más cálculos matemáticos que los realizados por toda la humanidad
anteriormente.
Antes de finalizar su construcción, los autores se dieron cuenta de sus limitaciones,
tanto a nivel estructural como a nivel de programación. Por eso en paralelo a su
construcción empezaron a desarrollar las nuevas ideas que dieron lugar
al desarrollo de la estructura lógica que caracteriza a los ordenadores actuales.

ENIGMA

Enigma

El Enigma fue la máquina


utilizada por el ejército alemán
para codificar sus mensajes
durante la
Segunda Guerra Mundial. Era
una especie de máquina de
escribir compuesta por 3
cilindros por los que rotaba cada
letra. Cuando el 1º cilindro
rotaba 26 veces (las letras del Enigma
abecedario) el 2º lo hacía una, y
cuando el 2º lo hacía 26 veces, el
3º lo hacía una vez.

Aunque se poseyera una Enigma era imposible descifrar unos mensajes si no se


conocía la posición inicial de los cilindros. Por eso los aliados construyeron
el Colossus.
Enigma

Harvard Mark I (ó IBM ASCC)

El proyecto entre IBM


y Howard Aiken para
construir una
computadora se inició en
1939. La Mark I se
terminó en 1943,
presentandose
oficialmente en 1944.

Mark I

En un principio la MARK I se llamaba ASCC (Calculadora Automática de


Secuencias Controladas). Era una máquina automática eléctrica, aunque tenía
componentes electromecánicos; podía realizar 5 operaciones aritméticas: suma,
resta, multiplicación, división y referencia a resultados anteriores.
La Mark I tenía 2.5 metros de alto y 17 metros de largo, pesaba 31500 kg, contenía
800 km de cable aproximadamente y tenía más de 3000000 de conexiones. Se
programaba a través de una cinta de papel en la que había perforadas las
instrucciones codificadas, la salida podía ser tanto por tarjetas perforadas como en
papel ya que a la salida se podía conectar una máquina de escribir eléctrica. La
máquina llamaba la atención porque tenía elegantes cubiertas de cristal muy
llamativas.
Mark I
Una vez programada el ASCC podía ser manejada por personas con un
pequeño conocimiento. Realizaba las multiplicaciones en 6 segundos y las divisiones
en 12 segundos.
En 1943, cuando se terminó su construcción, IBM cedió el ASCC a la universidad
de Harvard y fue entonces cuando se rebautizó como MARK I.

Mark I
Cuando fue puesta en pleno funcionamiento en 1944 se usó para el cálculo de
tablas de balística durante el final de la Segunda Guerra Mundial. Fue entonces
cuando Aiken contó con la colaboración con un personaje importante en
la historia de la informática: Grace Murray Hopper.
A pesar de que era una computadora más lenta en comparación con las
coexistentes con ella , como la ENIAC, se usó hasta 1959, año en el que se la
desmanteló, dejado partes en la universidad de Harvard y partes en el Instituto
SmithSonian en Washington ([Link]).

IBM 360
Comercializado a partir de 1964, el
IBM 360 fue el primero en usar la
palabra byte para referirse a 8 bits (con
cuatro bytes creaba una palabra de 32-
bits).
Esta arquitectura de computación fue la
que a partir de este modelo siguieron
todos los ordenadores de IBM.

IBM 360

El 360, fue la primera en usar microprogramación, y creó el concepto de


arquitectura de familia. La familia del 360 consistió en 6 computadoras que podían
hacer uso del mismo software y los mismos periféricos. El sistema también hizo
popular la computación remota, con terminales conectadas a un servidor, por medio
de una línea telefónica.

IBM 360
La IBM 360 una de las primeras computadoras comerciales que
usó circuitos integrados, podía realizar tanto análisis numéricos
como administración procesamiento de archivos, siendo a partir de él considerada la
3º generación de ordenadores.

IBM PC

Salió al mercado en agosto de 1981 el


primer modelo, el 5150, con
un microprocesador Intel 8088 y con
un precio de $5000. El cliente podía elegir
el sistema operativo entre CP/M por $400
o MS-Dos (de una empresa por aquel
entonces desconocida: Microsoft) por $100
(por lo que "obviamente" se implantó más
el sistema operativo de Microsoft). IBM PC
Este ordenador implantó los estándares de lo que hoy conocemos como
ordenador o pc.

IBM PC
Si comparamos el 5150 con una de las últimas computadoras de IBM, la
NetVista A21:
Modelo
IBM PC 5150
IBM NetVista A21
Fecha de nacimiento
12 de agosto de 1981
24 de julio de 2001
CPU
Intel 8088 4.77MHz
Intel Celeron 1GHz
Memoria
16K expandible a 64K
128MB expandible a 512MB
Disco duro
No tenía
20 GB
Sistema Operativo
CP/M o IBM PC-DOS (Microsoft MS-DOS)
Microsoft Windows 98
Precio
5000 dólares (con 64K de memoria)
599 dólares (con monitor de 15 pulgadas)
Manchester Mark I

La Manchester Mark 1 fue en un


principio una máquina
experimental a pequeña escala
llamada "the baby", construida
entre 1947 y 1948 en la universidad
de Manchester (Gran Bretaña), su
diseño se pensó para demostrar el
potencial que tendrían los
programas almacenados en la
computadora, por eso se considera
la primera computadora que
funcionaba con memoria RAM. El
matemático Alan Turing se
incorporó al proyecto en el año
1948, realizando un lenguaje de
Manchester Mark I
programación para la
computadora.

En 1951, "the baby" fue remplazada por una versión conocida como Ferranti Mark
I, que surgió de la colaboración del equipo de la universidad de Manchester y de los
hermanos Ferranti que tenían una fábrica, la Ferranti Mark I fue de las primeras
computadoras comerciales de la historia.
Algunas de sus características fueron: una memoria principal (RAM) de 256
palabras de 40 bit cada una (o sea tenía una memoria de 1280 bytes) basada en tubos
de vacío; una memoria que almacenaba 3750 palabras; realizaba una operación
estándar, como una suma, en 1.8 milisegundos, en cambio para realizar una
multiplicación era mucho más lento, añadiéndole al tiempo de una operación
estándar 0.6 milisegundos por cada bit que tuviera el multiplicador. La entrada era
por medio de un sencillo teclado para almacenar directamente
la información al computador; la salida para las comprobaciones era a través de un
visualizador de tubos de rayos catódicos.

Máquina Algebraica de Torres Quevedo


Construida en 1894
por Leonardo Torres Quevedo,
con la financiación de la Real
Academia de Ciencias, gracias
a la presentación de una
memoria con la descripción de
la máquina que permitiría
resolver ecuaciones algebraicas.

Máquina Algebraica de Torres Quevedo

Actualmente se conserva en la ETS de Ingenieros de Caminos de la universidad


Polictécnica de Madrid.
El objetivo de la máquina era la obención de manera continua y automática
de valores de funciones polinómicas. Al tratarse de una máquina analógica, la
variable puede recorrer cualquier valor (y no sólo unos valores discretos prefijados).
Por ello, ante una ecuación polinómica, haciendo girar todas las ruedas
representativas de la incógnita, el resultado final irá dando los valores de la suma de
los términos variables, cuando esta suma coincida con el valor del segundo miembro,
la rueda de la incógnita marcará una raíz.
Esta máquina presenta dos innovaciones importantes respecto a las de su época: el
uso de la escala logarítmica, que permite reducir a sumas la evaluación de monomios
y los "husillos sin fin" inventados por Torres Quevedo.

Husillo sin fin


Máquina Analítica

Babbage concibió la máquina


analítica a partir de 1834,
cuando el proyecto de la
máquina en diferencias se
paralizó. Mientras que la
máquina en diferencias
necesitaba permanentemente un
operador para su
funcionamiento, la máquina
analítica era ya automática. Y
mientras que la máquina en
diferencias tenía un propósito
específico, la máquina analítica
tenía un propósito general, podía
ser "programada" por el
usuario para ejecutar un
repertorio de instrucciones en el
orden deseado. Parte de la máquina analítica construida
posteriormente por el hijo de Babbage

El diseño de la máquina analítica incluye la mayoría de las partes lógicas de un


ordenador actual: el "almacén", el "taller", el "control", la "entrada" y la "salida".
El "almacén" contiene los datos, contendría 1000 números de 50 dígitos cada uno. La
máquina se programaba a través de tarjetas perforadas. El "control" ejecuta una
secuencia de operaciones indicadas en las tarjetas perforadas. La máquina era capaz
de realizar bucles (repetir una o varias instrucciones el número de veces deseado), y
también era capaz de tomar decisiones dependiendo del resultado de un cálculo
intermedio (ejecutar una sentencia SI...ENTONCES...).
El sueño de Babbage de construir esta máquina no pudo realizarse, lo único que
pudo construir fueron pequeñas partes.

Máquina en Diferencias
Fue concebida en 1821 por Charles
Babbage, con el propósito de evaluar
funciones polinómicas. Para el cálculo
de dichas funciones se basa en
el método de diferencias finitas, que
elimina tener que realizar
multiplicaciones y divisiones, solo usa
sumas siendo así mecanismos más
sencillos.
Máquina en diferencias
modelo 1

Constaba de 25000 partes mecánicas, con un peso de 15 toneladas. Una de las


únicas partes construida de la máquina fue completada en 1832 (fotos). Para el
desarrollo de la máquina Babbage contó con la financiación del gobierno, pero a
pesar de ello el proyecto se detuvo en 1833.

Detalles de la máquina en diferencias


Babbage diseñó un segundo modelo de la máquina en diferencias entre 1847 y
1849, con un diseño más sencillo y con tres veces menos partes que el modelo
anterior, pero sin perder el poder de computación. Este diseño le ayudó para el
desarrollo de la máquina analítica.

Diseño original de Babbage del segundo modelo


(pinche sobre la foto para verla en grande)
En 1985 el Museo de Ciencias de Londres ha construido este modelo a partir de
la documentación de Babbage. Está compuesto de 4000 partes mecánicas, y tiene un
peso de 2.6 toneladas.

Reconstrucción de la máquina en diferencias modelo 2

Máquina de diferencias de Scheutz

George Scheutz, un
impresor sueco, se
basó en los trabajos
realizados
por Charles
Babbage para
construir una
máquina de
diferencias similar a
la de él, pero por el
contrario que la de
Babbage, la de
Scheutz sí funcionó Máquina de diferencias
perfectamente.

En 1938 construyó una primera versión junto con su hijo Edward. En 1953
construyeron la versión definitiva, una máquina que podía procesar números de
quince dígitos, y calcular la cuarta diferencia. Esta máquina obtuvo la medalla
de oro en la Exposición Mundial de París en 1955. Después fue vendida al
Observatorio Dudley en Albany (Nueva York) en donde se utilizó para calcular la
órbita de Marte. En la actualidad se encuentra en el museo Smithsonian
(Washington).
Máquinas de Zuse

Konrad
Zuse construyó
numerosas computadoras
a lo largo de su vida, en
un principio más bien
como investigador,
aunque finalmente se
dedicó a ello plenamente.
A continuación
hablaremos de sus
primeras máquinas: la
Z1, la Z2, la Z3, y la Z4.

Z1

La Z1 es considerada en la actualidad una de las primeras computadoras


programables del mundo. Se terminó de construir en 1938 y fue financiada
completamente con dinero privado (principalmente de familiares y amigos de Zuse,
incluido él mismo). Esta computadora fue destruida en un bombardeo en Berlín
durante la Segunda Guerra Mundial, Zuse decidió reconstruirla en 1986 acabándola
en 1989, estando dicha reconstrucción en el Museo Técnico Alemán en Berlín. La Z1
fue construida en el apartamento de sus padres, como puede observarse en
la fotografía.

Reconstrucción de la Z1 y Zuse junto a ella


La Z1 tiene todas las partes de una computadora moderna: unidad de control,
memoria, lógica en coma flotante, ... a pesar de ser una máquina
completamente mecánica. Realizaba una multiplicación en 5 segundos
aproximadamente, tenía un teclado decimal para insertar las operaciones, una
memoria de 64 celdas de 22 bit, y pesaba unos 500 kilogramos.
La Z2 surgió al ver la dificultades de una máquina mecánica, por eso rediseñó la
Z1 añadiéndole relés telefónicos. Así, la unidad numérica de la Z2 tenía 800 relés,
aunque todavía mantenía componentes mecánicos. La Z2 fue finalizada en 1939, y al
acabar Zuse ya estaba pensando en la siguiente computadora la Z3 para que fuera
completamente realizada con relés.
La Z2 también fue destruida durante un bombardeo en 1940. Las características
técnicas de la Z2 se asemejaban a la de la Z1 en cuanto al poder de cálculo. La Z2 fue
para Zuse un modelo experimental para probar el poder de la utilización de los relés
telefónicos.
Para Zuse, la Z3 era la "primera computadora funcional del mundo controlada
por programas", otras máquinas equiparables a la Z3 fueron la Mark II, o
la ENIAC que fueron presentadas en 1943 o años posteriores, mientras que la Z3 fue
presentada en 1941.
La Z3 fue construida en su totalidad con relés telefónicos. No existen fotos de la
original Z3, las fotografías que se muestran son de una reconstrucción realizada por
Zuse entre 1960 y 1964. Esta reconstrucción estuvo en la Exposición Universal de
Montreal en 1967, y en la actualidad se encuentra en el Museo Técnico Alemán de
Berlín.

Z3
La Z3 estaba formada por partes tales como la unidad de control, la memoria, la
unidad aritmética, y los dispositivos de entrada y salida. Estaba compuesta por unos
2200 relés, 600 para la unidad numérica y 1600 para la unidad de almacenamiento.
Realizaba una suma en 0.7 segundos, y una multiplicación o una división en 3
segundos. Pesaba unos 1000 kilogramos y como sus hermanas fue destruida durante
un bombardeo en 1944.
Z3
La Z4 fue terminada en 1944, aunque en años posteriores fue retocada añadiéndole
una unidad de lectura de tarjetas perforadas. La Z4 fue utilizada por
numerosas instituciones hasta 1959, en la actualidad se encuentra en el museo alemán
de Munich.

Z4
La Z4 tenía una unidad para producir tarjetas perforadas con instrucciones para
la propia Z4, con lo que no era demasiado complicado programarla. Y así también
era posible realizar copias de los programas para poder hacer correcciones.

Animación de Z4
La Z4 admitía un gran conjunto de instrucciones capaz de resolver complicados
cálculos científicos, era capaz de ejecutar 1000 instrucciones por hora. Estaba
compuesta aproximadamente 2200 relés; realizaba unas 11 multiplicaciones por
segundo y tenía una memoria de 500 palabras de 32 bit. Pesaba unos 1000
kilogramos. La entrada de datos era o a través de un teclado decimal o a través de
tarjetas perforadas, y la salida era por una máquina de escribir.
UNIVAC
(Universal Automatic Computer)

El UNIVAC fue la primera


computadora diseñada y
construida para un propósito
no militar. Fue desarrollada
para la Oficina del Censo en
1951 por los ingenieros John
Mauchly y John Presper
Eckert, que empezaron a
diseñarla y construirla en
1946. Aunque también se
vendieron para agencias del
gobierno de [Link] y
compañías privadas, en total se
vendieron 46 unidades. Cada
una de las computadoras valía
de $1000000 a $1500000, cifras
que actualizadas serían del UNIVAC
orden de $6500000 a $9000000.

Era una computadora que pesaba 16000 libras (7257 kg. aproximadamente),
estaba compuesta por 5000 tubos de vacío, y podía ejecutar unos 1000 cálculos por
segundo. Era una computadora que procesaba los dígitos en serie. Podía hacer sumas
de dos números de diez dígitos cada uno, unas 100000 por segundo.
Organigrama del UNIVAC
(pinchen en la imagen para verla ampliada)
Funcionaba con un reloj interno con una frecuencia de 2.25 MHz,
tenía memorias de mercurio. Estas memorias no permitían el acceso inmediato a los
datos, pero tenían más fiabilidad que los tubos de rayos catódicos, que son los que se
usaban normalmente.

Eckert y el UNIVAC Mauchly y el UNIVAC


El UNIVAC realizaba una suma en 120 µseg., una multiplicación en 1800 µseg. y
una división en 3600 µseg. La entrada consistía en una cinta magnética con una
velocidad de 12800 caracteres por segundo, tenía una tarjeta que convertía la
información desde tarjetas perforadas a cintas magnéticas con una velocidad de 200
caracteres por segundo. La salida podía ser por cinta magnética a 12800 caracteres
por segundo, o por una impresora con una velocidad de 600 líneas por minuto.
Distintas vistas del UNIVAC

Panel de control del UNIVAC


El UNIVAC fue utilizado para predecir los resultados de las elecciones
presidenciales de [Link] entre Eisenhower y Stevenson, la computadora acertó en su
pronóstico, pero la prensa lo atribuyó que formaba parte de la campaña política. El
original UNIVAC se encuentra en el museo Smithsonian.

UNIVAC
(pinche en la foto para verla en grande)
Las Generaciones de la Computación
1° Generación: se desarrolla entre 1940 y 1952. Es la época de los ordenadores que funcionaban
a válvulas de vacío y el uso era exclusivo para el ámbito científico/militar. Para poder programarlos
había que modificar directamente los valores de los circuitos de las máquinas.
2° Generación: va desde 1952 a 1964. Ésta surge cuando se sustituye la válvula por el transistor. En esta
generación aparecen los primeros ordenadores comerciales, los cuales ya tenían
una programación previa que serían los sistemas operativos. Éstos interpretaban instrucciones
en lenguaje de programación (Cobol, Fortran), de esta manera, el programador escribía sus programas en
esos lenguajes y el ordenador era capaz de traducirlo al lenguaje máquina.
3° Generación: se dio entre 1964 y 1971. Es la generación en la cual se comienzan a utilizar los circuitos
integrados; esto permitió por un lado abaratar costos y por el otro aumentar la capacidad de
procesamiento reduciendo el tamaño físico de las máquinas. Por otra parte, esta generación es
importante porque se da un notable mejoramiento en los lenguajes de programación y, además, surgen
los programas utilitarios.
4° Generación: se desarrolla entre los años 1971 y 1981. Esta fase de evolución se caracterizó por la
integración de los componentes electrónicos, y esto dio lugar a la aparición del microprocesador, que es
la integración de todos los elementos básicos del ordenador en un sólo circuito integrado.
5° Generación: va desde 1981 hasta nuestros días (aunque ciertos expertos consideran finalizada esta
generación con la aparición de los procesadores Pentium, consideraremos que aún no ha finalizado) Esta
quinta generación se caracteriza por el surgimiento de la PC, tal como se la conoce actualmente.

PROCESAMIENTO DE DATOS
El procesamiento de datos es, en general, "la acumulación y manipulación de elementos
de datos para producir información significativa." El procesamiento de datos trata de un
subconjunto del 'procesamiento de la información', el cambio (procesamiento) de la
información de cualquier manera detectable por un observador.

Sin el procesamiento de los datos, las organizaciones no tienen acceso a cantidades


ingentes de datos que pueden ayudarles a ganar ventaja competitiva, ofrecerles información
útil sobre sus ventas, estrategias de marketing y necesidades de los consumidores. Es
fundamental que las empresas de cualquier tamaño entiendan las necesidades de procesar
sus datos.

El procesamiento de datos se produce cuando se recaban datos y se traducen a


información utilizable. Suelen ocuparse los científicos de datos, solos o en equipo, y es
importante que el procesamiento se realice correctamente para no afectar negativamente al
producto final o los resultados obtenidos a partir de los datos.

El procesamiento empieza con datos en su forma en bruto y los convierte a un formato más
legible (gráficos, documentos, etc.), dándoles la forma y el contexto necesarios para que los
ordenadores los interpreten y los empleados los utilicen en toda una organización.
Etapas del procesamiento de datos

1. Recogida de datos
La recogida de datos es el primer paso del procesamiento. Los datos se extraen de las
fuentes disponibles, entre las cuales se cuentan los data lakes y los almacenes de datos. Es
importante que las fuentes de datos disponibles sean fiables y estén bien creadas para que
los datos recabados (que posteriormente se emplearán como información) sean de la más
alta calidad posible.

2. Preparación de datos
Una vez recabados los datos, se pasa a la fase de la preparación de datos. La preparación de
datos, a menudo llamada "preprocesamiento", es la etapa en la que los datos en bruto se
limpian y organizan para la siguiente fase del procesamiento. Durante la preparación, los
datos en bruto se verifican diligentemente para detectar errores. El objetivo de este paso es
eliminar los datos erróneos (datos redundantes, incompletos o incorrectos) y empezar a
crear datos de gran calidad para obtener la mejor business intelligence.

3. Introducción de datos
A continuación los datos limpios se introducen en su destino (puede ser un CRM,
como Salesforce, o un almacén de datos, como Redshift y se traducen a un lenguaje
comprensible. La introducción de datos es el primer paso en el que los datos en bruto
empiezan a cobrar forma como información utilizable.

4. Procesamiento
Durante esta fase los datos ingresados en el ordenador en la fase anterior se procesan
realmente para su interpretación. El procesamiento se efectúa por medio de algoritmos
de machine learning, si bien el proceso en sí puede variar ligeramente según cuál sea la
fuente de los datos que se esté procesando (data lakes, redes sociales, dispositivos
conectados, etc.) y su uso previsto (estudiar patrones publicitarios, diagnósticos médicos a
partir de dispositivos conectados, determinar necesidades de clientes, etc.).

5. Salida/interpretación de datos
La etapa de salida/interpretación es la fase en la que los datos resultan finalmente
utilizables para los que no son científicos de datos. Están traducidos, son legibles y muchas
veces se presentan en forma de gráficos, vídeos, imágenes, texto simple, etc. A partir de ese
momento los miembros de una empresa o institución pueden empezar a autogestionarse los
datos para sus propios proyectos de analíticas de datos.
6. Almacenamiento de datos
La última fase del procesamiento de datos es el almacenamiento. Cuando todos los datos
están procesados, se almacenan para su futuro uso. Si bien hay alguna información que ya
puede emplearse de inmediato, gran parte tendrá utilidad a posteriori. Además, almacenar
correctamente nuestros datos es una necesidad para dar cumplimiento a la legislación de
protección de datos, como el RGPD. Cuando los datos están bien almacenados, a los
miembros de la organización les resulta fácil y rápido acceder a ellos siempre que lo
necesiten.

El futuro del procesamiento de datos


El futuro del procesamiento de datos se halla en la cloud. La tecnología cloud saca partido a
la conveniencia de los actuales métodos de procesamiento de datos electrónicos y acelera
su velocidad y eficacia. Si los datos son más rápidos y de mayor calidad, eso implica que
las organizaciones disponen de más datos que utilizar y más información valiosa que
extraer.

Con la migración de los big data a la cloud, las empresas obtienen enormes beneficios.
Las tecnologías cloud para big data permiten a las empresas combinar todas sus
plataformas en un único sistema fácil de adaptar. A medida que el software cambia y se
actualiza (como suele ser el caso en el mundo de los big data), la tecnología cloud integra
sin fisuras lo nuevo con lo antiguo.

Las ventajas del procesamiento de datos en la cloud no son en absoluto exclusivas de las
grandes corporaciones. En realidad, las pequeñas empresas pueden obtener beneficios aún
mayores. Las plataformas cloud pueden ser económicas y ofrecen la flexibilidad para crecer
y ampliar sus capacidades a medida que la empresa crezca. Aporta a las empresas la
capacidad de escalar sin pagar un precio elevado.

Del procesamiento a la analítica de datos


Los big data están cambiando la forma de hacer negocios de las empresas y, para
sociedades de cualquier tamaño, ganar ventaja competitiva exige contar con una estrategia
de procesamiento de datos robusta. Si bien las seis fases del procesamiento de datos no van
a cambiar, con el paso del tiempo la cloud ha abanderado grandes avances en tecnología,
convirtiéndose hoy por hoy en el método más avanzado, rentable y rápido.

¿Qué sucede a partir de ahora? Es hora de poner a trabajar sus datos. Cuando sus datos
estén procesados, podrán ser analizados eficazmente para obtener business intelligence.
Con la ayuda de analíticas de datos podrán tomar decisiones comerciales más rápidas e
inteligentes.
Procesamiento en tiempo real
El procesamiento en tiempo real trabaja con flujos de datos que se capturan en tiempo real
y se procesan con una latencia mínima para generar informes en tiempo real (o casi en
tiempo real), o respuestas automatizadas. Por ejemplo, una solución de supervisión del
tráfico en tiempo real podría usar datos de sensores para detectar volúmenes de tráfico
elevados. Estos datos se pueden utilizar para actualizar dinámicamente un mapa que
muestre los atascos o para poner en marcha automáticamente carriles para vehículos con
más de un pasajero u otros sistemas de administración de tráfico.

El procesamiento en tiempo real se define como el procesamiento de flujos no asociados de


datos de entrada, con requisitos de latencia muy cortos para el procesamiento, que se miden
en milisegundos o segundos.

Procesamiento por lotes


Se conoce como sistema por lotes (en inglés batch processing), o modo batch, a la
ejecución de un programa sin el control o supervisión directa del usuario (que se
denomina procesamiento interactivo). Este tipo de programas se caracterizan porque su
ejecución no precisa ningún tipo de interacción con el usuario.

El método de procesamiento por lotes se utilizó por primera vez en el siglo XIX por parte
de Herman Hollerith, un inventor estadounidense que creó la primera máquina tabuladora. Este
aparato se convirtió en el precursor del ordenador moderno, capaz de contar y ordenar datos
organizados en forma de tarjetas perforadas. Las tarjetas y la información que contenían luego se
compilaba y se procesaba conjuntamente por lotes. Esa innovación permitió tratar grandes
cantidades de datos de forma más rápida y precisa que por los métodos de introducción manual.
Fundamentos del procesamiento por lotes
El procesamiento por lotes desempeña un papel crítico a la hora de ayudar a empresas y
organizaciones a administrar grandes cantidades de datos con eficiencia. Es especialmente apto para
el manejo de tareas frecuentes y repetitivas, como los procesos de contabilidad. En todos los
sectores y para todas las tareas, los fundamentos básicos del procesamiento por lotes siguen siendo
los mismos. Los parámetros esenciales son:

 Quién envía la tarea


 Qué programa se ejecutará
 La ubicación de los archivos de entrada y salida
 Cuándo debería ejecutarse la tarea.
 Dicho de otro modo: quién, qué, dónde y por qué.

Ejemplo: tratamiento de datos financieros por lotes

Muchas empresas recurren al procesamiento por lotes para automatizar sus procesos de facturación.

Piense en una operación de su tarjeta de crédito que no apareció en su extracto de la cuenta bancaria
hasta unos cuantos días después de que se gastara ese dinero. Podría ser que esa operación hubiera
sido procesada dentro de un lote cierto tiempo después de haber realizado la compra.

Otro ejemplo sería una empresa mayorista que tan solo facture a sus clientes una vez al mes y pague
a sus empleados cada dos semanas. Tanto el ciclo de facturación mensual como los ciclos de
nómina quincenales son ejemplos de procesamiento por lotes. \

Ventajas
El procesamiento por lotes se ha popularizado porque reporta toda una serie de ventajas para
la gestión de datos en empresas. Las organizaciones pueden sacar provecho de muchas de las
ventajas que trae consigo el procesamiento por lotes:

Eficiencia

El procesamiento por lotes permite a una empresa procesar tareas cuando la computación u otros
recursos estén disponibles. Las empresas pueden priorizar las tareas más urgentes y programar
procesamientos por lotes para las que corran menos prisa. Además, los sistemas por lotes pueden
ejecutarse sin conexión con el fin de minimizar la presión sobre los procesadores.

Teleproceso: se refiere al procesamiento de datos provenientes de terminales en una unidad


central. Esta palabra aparece a finales de la década de 1960 y se deriva de telecomunicación en proceso
de datos. El teleproceso es parte de la historia de las telecomunicaciones.
Concepto de comunicación sincrónica y asincrónica

Cuando hablamos de comunicación sincrónica y asincrónica nos estamos refiriendo a dos formas de
intercambio de la información en función de la simultaneidad con la que se envía y ofrece el
mensaje.
En este sentido, según explica Jesús Valverde Berrocoso en Herramientas de comunicación sincrónica y
asincrónica, la comunicación sincrónica es aquella “en la que los usuarios, a través de una red
telemática, coinciden en el tiempo y se comunican entre sí mediante texto, audio y/o vídeo”. Por
ejemplo, en una vídeo conferencia, los interlocutores implicados conversan al mismo tiempo, siendo
necesario que, tanto emisor, como receptor se encuentren conectados al mismo tiempo.
Por el contrario, en la asincrónica, continúa el autor, “los participantes utilizan el sistema de
comunicación en tiempos diferentes‖. Sería el caso del correo electrónico, por ejemplo, pues el
receptor puede leer el mensaje en cualquier momento después de que el receptor lo envíe, sin que se
produzca esa simultaneidad en la comunicación.

Diferencias entre la comunicación síncrona y asíncrona

Así, como señala Joel Shore, en el artículo Synchronous Vs. Asynchronous Communication: The
Differences, ―mientras que las comunicaciones asincrónicas no esperan una respuesta, la ejecución
síncrona requiere que las partes o los componentes funcionen simultáneamente en tiempo real‖.
De este modo, la simultaneidad de la conversación es la distinción clave entre la comunicación
sincrónica y asincrónica. Sin embargo, existen otras diferencias entre estos dos tipos de transmisión de
la información a través de internet:

 Como decimos, la comunicación sincrónica es temporalmente dependiente, es decir, para que


tenga lugar, es necesario que los comunicantes coincidan al mismo tiempo, lo que no ocurre en
la asincrónica.
 En la comunicación sincrónica, los datos se transfieren en forma de tramas, mientras que, en
la asincrónica, los datos se envían de un byte en un byte.
 La transmisión sincrónica necesita una señal de reloj entre el emisor y el receptor para
informar al segundo sobre la llegada del nuevo byte o mensaje. En cambio, en la asincrónica, no
se requiere esta señal de reloj externa, puesto que los datos se sincronizan a través de señales,
que indican el inicio del nuevo byte o mensaje.
 La velocidad de transferencia de la comunicación asincrónica es más lenta que la de la
transmisión sincrónica.
 Por el contrario, la transmisión asincrónica es más simple y económica que la sincrónica.
 La comunicación sincrónica es más eficiente y tiene una sobrecarga menor, en comparación con
la asincrónica.

Tipos de comunicación sincrónica y asincrónica

No obstante, dentro de la comunicación sincrónica y asincrónica también podemos realizar una


distinción. En concreto, según recoge Roberto de Miguel Pascual, en Fundamentos de la comunicación
humana, los servicios que proporciona la comunicación en internet pueden agruparse en estas
otras cuatro categorías:

 Comunicación asincrónica de usuario a usuario: cuando el contenido es enviado por un


emisor a un receptor concreto, como ocurre con un SMS.
 Comunicación asincrónica entre múltiples usuarios: en el caso de que el mensaje esté
dirigido a un grupo de personas, como es el caso de un foro de discusión en una página web.
 Comunicación sincrónica de usuario a usuario: si se trata de conversaciones personalizadas y
simultáneas, como una llamada por Skype.
 Comunicación sincrónica entre múltiples usuarios: aquellas conversaciones electrónicas
interactivas con varios participantes, como un Hangout grupal.

Ventajas y desventajas entre ambos tipos

La comunicación sincrónica y asincrónica presenta una serie de ventajas e inconvenientes. En cuanto a


los pros de ambas, cabe destacar los siguientes:

 Comunicación asincrónica
o Es más simple, ya que no requiere sincronización de ambos lados de la comunicación.
o Resulta más barata, porque necesita menos hardware para su funcionamiento.
o La configuración del software es más rápida que otras transmisiones, por lo que es
ideal para aplicaciones donde los mensajes se generan a intervalos irregulares.
 Comunicación sincrónica:
o Sufre menos sobrecarga.
o Presenta un mayor rendimiento.
o La comunicación es más rápida, al producirse en tiempo real.

Respecto a los contras de ambos tipos de comunicación, encontramos:

 Comunicación asincrónica:
o Lleva aparejado un mayor riesgo de sobrecarga.
o La transmisión de información no es tan fluida como en la sincrónica.
o Resulta menos eficiente.
 Comunicación sincrónica:
o Conlleva un proceso más complejo.
o Necesita de un mayor conocimiento informático.
o Supone un mayor costo, dado que requiere un software más sofisticado.

Herramientas de comunicación sincrónica y asincrónica

¿Cuáles son los diferentes sistemas de comunicación sincrónica y asincrónica? Se trata de


herramientas de frecuente uso en la comunicación corporativa. Así, dentro de la comunicación
sincrónica, utilizamos las siguientes:

 Audio conferencia: consiste en una llamada de voz, ya sea por teléfono o por algún otro
programa informático; permite hablar a dos personas en tiempo real desde diferentes sitios.
 Vídeo conferencia: posibilita mantener conversaciones con audio y vídeo de forma simultánea
y es habitual para reuniones entre trabajadores o proveedores, que físicamente se encuentran en
zonas geográficas diferentes.
 Chat: permite a varias personas comunicarse en tiempo real, a través de mensajes de texto. Es
empleado tanto para la comunicación interna de los trabajadores, como para la atención a los
clientes.
 Mensajería instantánea: a través de ella, los interlocutores pueden intercambiar información –
principalmente texto, pero también audios, vídeos y documentos-en tiempo real. Whatsapp sería
el caso más popular, aunque en el ámbito empresarial también es frecuente el empleo de Slack.

En cuanto a los instrumentos de comunicación asincrónica, encontramos:

 Email: es el medio asincrónico más extendido y permite a un emisor enviar información a una
persona, que la verá cuando abra el mensaje concreto.
 Listas de distribución: utilizando el mismo sistema de correo electrónico, las listas de
distribución permiten hacer que el mensaje llegue a más de un destinatario, previamente
determinados por categorías o filtros.
 Foros de debate: consisten en sitios web donde los trabajadores pueden plantear preguntas,
esperando que otra persona las conteste, o responder cuestiones previamente realizadas por
otros compañeros.
 Wikis: se trata de webs cuyo contenido puede ser editado por cualquier usuario.
 Documentos compartidos: hace referencia a espacios web en la nube o la intranet, donde los
empleados pueden acceder a diferentes documentos online para su edición conjunta.

Ahora bien, la eficiencia de estas herramientas va a depender del mayor o menor acierto en las
políticas comunicativas que las compañías haya implantado en su seno.

Programa informático o software


Es un elemento imprescindible para el normal funcionamiento de una computadora. Puede ser
tanto un programa ejecutable como su código fuente, que es escrito por los programadores. Por
otra parte, de acuerdo a sus funciones, un programa puede ser catalogado como un software de
sistema o un software de aplicación.

En este ámbito tecnológico se puede hablar de multitud de programas que tienen como objetivo
el que podamos realizar una tarea concreta de una manera sencilla. Este sería el caso de Word,
que es un procesador de textos que nos ayuda a crear y diseñar multitud de documentos
textuales, o PowerPoint que nos sirve para desarrollar presentaciones visuales muy atractivas.

Definición de Computador
Ordenador o Computadora, dispositivo electrónico capaz de recibir un conjunto de instrucciones y
ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros
tipos de información.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o
computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para
el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la
fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos
de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en
tecnología aplicada.
2._ Tipos de Ordenadores o Computadoras
En la actualidad se utilizan dos tipos principales de ordenadores: analógicos y digitales. Sin embargo, el
término ordenador o computadora suele utilizarse para referirse exclusivamente al tipo digital. Los
ordenadores analógicos aprovechan la similitud matemática entre las interrelaciones físicas de
determinados problemas y emplean circuitos electrónicos o hidráulicos para simular el problema físico.
Los ordenadores digitales resuelven los problemas realizando cálculos y tratando cada número dígito por
dígito.
Las instalaciones que contienen elementos de ordenadores digitales y analógicos se denominan
ordenadores híbridos. Por lo general se utilizan para problemas en los que hay que calcular grandes
cantidades de ecuaciones complejas, conocidas como integrales de tiempo. En un ordenador digital
también pueden introducirse datos en forma analógica mediante un convertidor analógico digital, y
viceversa (convertidor digital a analógico).
2.1_ Ordenadores Analógicos
El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de
datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como
datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza
longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras
funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que
pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se
generan continuamente para su visualización o para su conversión en otra forma deseada.
2.2_ Ordenadores Digitales
Todo lo que hace un ordenador digital se basa en una operación: la capacidad de det erminar si un
conmutador, o ‗puerta‘, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados
en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de
números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que
lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en
megahercios, o millones de ciclos por segundo. Un ordenador con una velocidad de reloj de 100 MHz,
velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100
millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden
ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras
utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de
ciclos por segundo.
La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la
cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada
vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una
operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de
conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que
puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez,
puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro
operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1),
ON-OFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8
conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de
datos en cada ciclo. Un grupo de ocho bits se denomina byte y cada uno contiene 256 configuraciones
posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una
instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un carácter o un
símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso
el número decimal 210 (véase Sistemas numéricos), o bien estar indicando al ordenador que compare los
datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip
de memoria. El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de
datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de
configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de
procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits
simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que
avanza el desarrollo de los ordenadores digitales modernos.
3._ Miniordenador
Miniordenador o Minicomputadora, un ordenador o computadora de nivel medio diseñada para
realizar cálculos complejos y gestionar eficientemente una gran cantidad de entradas y salidas de
usuarios conectados a través de un terminal. Normalmente, los miniordenadores se conectan
mediante una red con otras minicomputadoras, y distribuyen los procesos entre todos los equipos
conectados. Las minicomputadoras se utilizan con frecuencia en aplicaciones transaccionales y como
interfaces entre sistemas de mainframe y redes de área extensa.
4._ Microordenador
Microordenador o Microcomputadora, dispositivo de computación de sobremesa o portátil, que
utiliza un microprocesador como su unidad central de procesamiento o CPU. Los microordenadores más
comunes son las computadoras u ordenadores personales, PC, computadoras domésticas, computadoras
para la pequeña empresa o micros. Las más pequeñas y compactas se denominan laptops o portátiles e
incluso palm tops por caber en la palma de la mano. Cuando los microordenadores aparecieron por
primera vez, se consideraban equipos para un solo usuario, y sólo eran capaces de procesar cuatro, ocho
o 16 bits de información a la vez. Con el paso del tiempo, la distinción entre microcomputadoras y
grandes computadoras corporativas o mainframe (así como los sistemas corporativos de menor tamaño
denominados minicomputadoras) ha perdido vigencia, ya que los nuevos modelos de microordenadores
han aumentado la velocidad y capacidad de procesamiento de datos de sus CPUs a niveles de 32 bits y
múltiples usuarios.
Los microordenadores están diseñados para uso doméstico, didáctico y funciones de oficina. En casa
pueden servir como herramienta para la gestión doméstica (cálculo de impuestos, almacenamiento de
recetas) y como equipo de diversión (juegos de computadora, catálogos de discos y libros). Los escolares
pueden utilizarlos para hacer sus deberes y, de hecho, muchas escuelas públicas utilizan ya estos
dispositivos para cursos de aprendizaje programado independiente y cultura informática. Las
pequeñas empresas pueden adquirir microcomputadoras para el procesamiento de textos, para
la contabilidad y el almacenamiento y gestión de correo electrónico.
El desarrollo de las microcomputadoras fue posible gracias a dos innovaciones tecnológicas en el campo
de la microelectrónica: el circuito integrado, también llamado IC (acrónimo de Integrated Circuit), que
fue desarrollado en 1959, y el microprocesador que apareció por primera vez en 1971. El IC permite la
miniaturización de los circuitos de memoria de la computadora y el microprocesador redujo el tamaño de
la CPU al de una sola pastilla o chip de silicio.
El hecho de que la CPU calcule, realice operaciones lógicas, contenga instrucciones de operación y
administre los flujos de información favoreció el desarrollo de sistemas independientes que funcionaran
como microordenadores completos. El primer sistema de sobremesa de tales características, diseñado
específicamente para uso personal, fue presentado en 1974 por Micro Instrumentation Telemetry
Systems (MITS). El editor de una revista de divulgación tecnológica convenció a los propietarios de este
sistema para crear y vender por correo un equipo de computadora a través de su revista.
El precio de venta de esta computadora, que recibió el nombre de Altair, era relativamente asequible.
La demanda de este equipo fue inmediata, inesperada y totalmente abrumadora. Cientos de pequeñas
compañías respondieron a esta demanda produciendo computadoras para el nuevo mercado. La primera
gran empresa de electrónica que fabricó y vendió computadoras personales, Tandy Corporation
(Radio Shack), introdujo su modelo en 1977. Rápidamente dominó el sector, gracias a la combinación de
dos atractivas características: un teclado y un terminal de pantalla de rayos catódicos. También se hizo
popular porque se podía programar y el usuario podía guardar la información en una cinta de casete.
Poco tiempo después de la presentación del nuevo modelo de Tandy, dos ingenieros programadores,
Stephen Wozniak y Steven Jobs, crearon una nueva compañía de fabricación de computadoras llamada
Apple Computers. Algunas de las nuevas características que introdujeron en sus microcomputadoras
fueron la memoria expandida, programas en disco y almacenamiento de datos de bajo precio y
los gráficos en color. Apple Computers se convirtió en la compañía de más rápido crecimiento en
la historia empresarial de los Estados Unidos. Esto animó a un gran número de fabricantes de
microordenadores para entrar en este campo. Antes de finalizar la década de 1980, el mercado de los
ordenadores personales se encontraba ya claramente definido.
En 1981 IBM presentó su propio modelo de microordenador, llamado IBM PC. Aunque no incorporaba
la tecnología de computación más avanzada, el PC se convirtió en un hito de este sector en ebullición.
Demostró que la industria de los microordenadores era algo más que una moda pasajera y que, de hecho,
los microordenadores eran una herramienta necesaria en el mundo empresarial. La incorporación de un
microprocesador de 16 bits en el PC inició el desarrollo de micros más veloces y potentes. Así mismo, el
uso de un sistema operativo al que podían acceder todos los demás fabricantes de computadoras abrió el
camino para la estandarización de la industria.
A mediados de la década de 1980 se produjeron una serie de desarrollos especialmente importantes para
el auge de los microordenadores. Uno de ellos fue la introducción de un potente ordenador de 32 bits
capaz de ejecutar sistemas operativos multiusuario avanzados a gran velocidad. Este avance redujo las
diferencias entre micro y miniordenadores, dotando a cualquier equipo de sobremesa de una oficina con
la suficiente potencia informática como para satisfacer las demandas de cualquier pequeña empresa y de
la mayoría de las empresas medianas.
Otra innovación fue la introducción de métodos más sencillos y 'amigables' para el control de las
operaciones de las microcomputadoras. Al sustituir el sistema operativo convencional por una interfaz
gráfica de usuario, computadores como el Apple Macintosh permiten al usuario seleccionar iconos —
símbolos gráficos que representan funciones de la computadora— en la pantalla, en lugar de requerir la
introducción de los comandos escritos correspondientes. Hoy ya existen nuevos sistemas controlados por
la voz, pudiendo los usuarios operar sus microordenadores utilizando las palabras y la sintaxis
del lenguaje hablado.
5._Superordenador
Superordenador o Supercomputadora, ordenador o computadora de gran capacidad, tremendamente
rápida y de coste elevado, utilizada en cálculos complejos o tareas muy especiales. Normalmente se trata
de una máquina capaz de distribuir el procesamiento de instrucciones y que puede utilizar instrucciones
vectoriales. Las supercomputadoras se usan, por ejemplo, para hacer el enorme número de cálculos que
se necesitan para dibujar y animar una nave espacial, o para crear un dinosaurio en movimiento para una
película. También se utilizan para hacer las previsiones meteorológicas, para construir modelos
científicos a gran escala y en los cálculos de las prospecciones petrolíferas.
6._ Computadoras Portátiles
En 1993, con su filial FirstPerson Inc., Sun anunció su entrada en el mercado de la electrónica
de consumo con computadoras portátiles que se pueden conectar a sistemas de redes. Algunas
computadoras portátiles usan RAM con alimentación por baterías como disco virtual; es más caro pero
consume menos energía que un disco duro. Los relojes digitales, las computadoras portátiles y los juegos
electrónicos son sistemas basados en microprocesadores. Las pantallas LCD son más planas y más
pequeñas que los monitores de rayos catódicos, y se emplean frecuentemente en ordenadores portátiles.

¿Qué son el hardware y el software?

En informática, los términos hardware y software se emplean para referirse a los


dos aspectos distintos y complementarios de todo sistema computarizado: el físico
y tangible, por un lado; y el virtual y digital, por el otro. Cuerpo y alma,
respectivamente, de cualquier sistema informático.

Cuando hablamos de hardware (del inglés hard, rígido, y ware, producto) nos referimos al
conjunto mecánico, eléctrico o electrónico de las partes reales que integran el cuerpo
de un computador, es decir, las placas, tarjetas, circuitos integrados,
mecanismos, dispositivos eléctricos, encargados del procesamiento, soporte y
conexión de la máquina.

Este hardware se clasifica según su función en el proceso general del sistema:

 Hardware de almacenamiento. Opera como la ―memoria‖ del computador, donde


se almacena la información y los datos. Puede ser de almacenamiento primario
(interno, dentro del computador) o secundario (extraíble, portátil).
 Hardware de procesamiento. El corazón del sistema, es donde se llevan a cabo los
cálculos y se resuelven las operaciones lógicas.
 Hardware periférico. Se trata de los aditamentos y accesorios que se incorporan al
sistema para comunicarlo con el exterior y/o brindarle nuevas funciones. Puede ser
de tres tipos, a su vez:
o Hardware de entrada. Sirve para introducir datos al sistema, ya sea por
el usuario u operador, o de otros sistemas y computadoras en red.
o Hardware de salida. Similarmente, permite recuperar información del
sistema, o compartirlo por redes de telecomunicaciones.
o Hardware mixto. Ejecuta las funciones de entrada y salida a la vez.

Al hablar de software, en cambio, nos referimos al contenido virtual del


sistema: los programas, aplicaciones, instrucciones y protocolos de
comunicación que sirven de interfaz con el usuario y controlan el modo en que opera el
sistema, y le brindan un sentido. Se trata de la ―mente‖ del sistema.

Dicho software puede clasificarse, también, de acuerdo a su función en el sistema:

 Sistema operativo (o software de Sistema). Se ocupan de regular el modo en que


opera el sistema y garantizar su continuidad, sirviendo de base para otros programas
o aplicaciones, y permitiendo la interfaz con el usuario. Por lo
general están incorporados al sistema de fábrica.
 Software de aplicación. Se llama así a todos los programas adicionales que se
incorporan al computador, dotado ya de un sistema operativo, con el
propósito de llevar a cabo un sinfín de tareas posibles: desde procesadores de
texto, hojas de cálculo, navegadores de internet, aplicaciones de diseño o
videojuegos.

La sumatoria de hardware y software completan la totalidad de un sistema


informático cualquiera.
Ejemplos de hardware y software

Algunos ejemplos de hardware:

 Monitores o proyectores. Donde la información y los procesos son exhibidos para


el usuario, se consideran hardware de salida, aunque existen ya monitores táctiles
(que serían entonces periféricos mixtos).
 Teclado y ratón. Periféricos de entrada por excelencia, permiten el ingreso de datos
del usuario: a través de botones (teclas) y a través de movimientos y botones,
respectivamente.
 Webcams. También llamadas cámaras web, pues se popularizaron con la llegada
de Internet y las videoconferencias, permiten el ingreso y transmisión de audio y
video mediante el sistema.
 Microprocesadores. El núcleo de la CPU (La Unidad Central de Procesamiento),
es un microchip muy potente, que realiza millares de cálculos lógicos por segundo.
 Tarjetas de red. Estos circuitos integrados a la placa base del CPU le brindan la
posibilidad de interactuar con redes de datos a distancia, ya sea a través de cables,
señal de radio, etc.

Algunos ejemplos de software:

 Microsoft Windows. Probablemente el más popular de


los sistemas operativos empleados actualmente, es típico de los
computadores IBM. Permite al usuario manejar y e interactuar con los distintos
segmentos de un computador, mediante un entorno de usuario amigable, basado en
ventanas y representación visual.
 Mozilla Firefox. Un navegador de Internet sumamente popular, disponible para
descarga sin pago. Conecta al usuario con la World Wide Web, para realizar
búsquedas de datos y otros tipos de operaciones virtuales.
 Microsoft Word. Parte del paquete de Microsoft Office, se trata de un procesador
de texto de los más reconocidos que hay, e incluye herramientas para negocios,
gestión de bases de datos, elaboración de presentaciones, entre otros.
 Google Chrome. Otro navegador de Internet, ofrecido por la
empresa Google, cuya ligereza y velocidad lo hizo rápidamente popular entre
los usuarios de Internet. Además, abrió la puerta a proyectos de un sistema
operativo de Google.
 Adobe Photoshop. Una conocida aplicación de edición de imágenes y elaboración
de contenido visual, útil para el diseño gráfico y el retocado fotográfico, producto
de la empresa Adobe Inc.
Vamos a realizar un recorrido por todos los Elementos de hardware que puede tener un
sistema informático para poder comprender la llamada arquitectura de los ordenadores. Una
vez estudiado puedes ir al juego:Partes del Computador.

Para ello empezaremos explicando algunos conocimientos básicos imprescindibles para


entender las características de los diferentes componentes, como son los conceptos de
velocidad, capacidad almacenamiento, etc.

En un sistema informático u ordenador se introducen datos, ahora bien para que este puede
entenderlos los datos deben ser traducidos al lenguaje eléctrico, ya que es el único que el
ordenador conoce. No debemos olvidar que el ordenador es una máquina eléctrica, actúa de
una forma o de otra en función de si hay o no hay corriente en determinados sitios.

¿Cómo nos Entendemos con el Ordenador?

El microprocesador del ordenador está formado por millones de interruptores que son
accionados eléctricamente cuando les llega corriente eléctrica y están sin accionar cuando
no les llega corriente. Estos interruptores están todos integrados en un microchip.

Los dos estados posibles de estos interruptores integrados en el micro para nosotros serán
―0‖ y ―1‖, que corresponden a los estados de un interruptor ―abierto‖ y ―cerrado‖.

Cada uno de estos dígitos o estados se denomina bit: unida más pequeña de representación
de información en un ordenador, que se corresponde con un dígito binario, un 0 o un 1.

Es decir la información más pequeña que podemos representar en un ordenador es un 0 o


un 1, es decir un bit.

Del Lenguaje Humano al Lenguaje del Ordenador


En el sistema de codificación utilizado por los ordenadores es el sistema binario, cada
carácter (símbolo o letra) y número se representa por un byte: conjunto de 8 bits.

Es decir cada carácter (letra o símbolo) o número está formado por una combinación de 8
ceros y unos = 1 byte. Lógicamente cada uno con una combinación diferente.

Por ejemplo, la letra A en este código (ASCIL) se expresa con 8 bits, que son: 10100001

1 byte=8bits (un carácter, número o espacio en blanco)

1Kilobyte=1024Bytes

1Megabyte=1024Kilobytes

1Gigabyte=1024Megabytes

Si tenemos 8 interruptores y accionamos el primero, el cuarto y el octavo (fíjate en el


código del a letra A anterior), le estamos diciendo al ordenador que saque en pantalla la
letra A. Esto pasa cuando apretamos la letra A en el teclado del ordenador. ¡Ya nos hemos
comunicado con nuestro ordenador!.

Almacenamiento y Velocidad

Un byte ya sabemos que es un carácter o un número. 1Kb (kilobyte) son 1024 caracteres o
números. Ojo no son 1.000, son 1.024.

Un documento que ocupa 1Kb estará formado por 1024 números, letras, símbolos o
espacios en blanco

El Byte es la unidad de almacenamiento o capacidad utilizada en informática. Cuantos


más bytes podamos meter en un almacén mayor capacidad tendrá ese almacén.

El byte es una unidad muy pequeña, por eso se utilizan sus múltiplos como el Kb, Mb
(megabyte), Gb (gigabyte), Tb ( terabyte ), etc.
La unidad de velocidad de transmisión de datos (los bytes son los datos) de un sitio a
otro se expresará en Bytes/segundo (B/s), KB/s, MB/s o GB/s. En algunas ocasiones se
representa por bits por segundo en lugar de bytes (sobre todo en internet). En este caso se
diferencia por que la abreviatura es b (minúscula) en lugar de la B (mayúscula) usada para
los bytes.

Ejemplo Mb/s (Mbps) (megabits por segundo) ―Es una unidad 8 veces menor que en
MB/s‖. No confundir.

Otra unidad de velocidad o medida de la rapidez usada en informática es la unidad


de frecuencia que se mide en Hz (hertzios, veces por segundo que algo se repite) o Mhz
(MegaHertzios más común).

Cuando un componente tiene una velocidad de 1Mhz quiere decir que ese componente
realiza algo un millón de veces por segundo. Lo que realice depende del componente.

Resumiendo las unidades de velocidad más usadas en informática serían Kbps o Kb/s,
KBps o KB/s y Mhz o Ghz (mil millones de veces por segundo).

Las unidades de almacenamiento Byte, KB, MB, GB o TB (terabytes).

Ejemplos de Conexiones a internet: RTB (56Kbps) RDSI (64Kps, 128Kbps) . ADSL


(256Kbps, 512Kbps, 1000Kbps, 8Mbps, etc.). Cable (128 o 256 Kbps….).

Velocidad del ordenador

La velocidad de un ordenador depende de varios factores. El más importante es la


frecuencia y después el número de bits interno. También es importante la capacidad de la
memoria RAM que veremos más adelante.

Cada microprocesador puede trabajar simultáneamente con un número determinado de bits


a la vez, es decir, un dato importante que debemos conocer es el número de bits
internos del microprocesador (o ancho de banda).

Es semejante a una cosechadora que es capaz de segar varias filas de maíz en cada vuelta
que da al campo. Cuantas más filas de maiz sea capaz de segar a la vez en cada vuelta,
antes acabará de cosechar el campo. Mas ancha la hoja con la que siega implica que tarda
menos en segar.

También pasa esto en el microprocesador. Cuanto mayor sea el número de bits internos del
micro con los que pueda trabajar a la vez, menos tardará en procesar los datos.

Valores típicos para los microprocesadores son 16 (ya en desuso), 32 ó 64 bits internos.
Esto nos da una idea de la rapidez del micro.

El ciclo de la máquina o frecuencia es la serie de operaciones requerida para procesar


una instrucción. Dentro de los ordenadores hay un reloj que va marcando el ritmo de
trabajo. Es el número que acompaña al microprocesador en la propaganda e indica la
velocidad en Megahertzios (millón de instrucciones por segundo) Cuanta más alta es la
frecuencia, mayor es la velocidad del ordenador.

Un ordenador que tiene un ciclo o frecuencia de 2Mhz significa que es capaz de realizar 2
millones de instrucciones en cada segundo.

El bus de datos es la autopista por la que se transporta o viaja la información (los bits) de
un sitio a otro del ordenador.

Los datos viajan por cables llamados buses o por el interior de la placa base por la
llamadas pistas.

La placa base envía los datos a su exterior por medio de los cables o buses. Es decir utiliza
buses para enviar la información desde la placa base al resto de componentes, como por
ejemplo al disco duro.

Siguiendo con nuestro ejemplo de la cosechadora, una vez que tiene el grano almacenado,
lo deposita en los remolques de los camiones para transportarlo. De nada sirve disponer de
una gran cosechadora, si luego perdemos mucho tiempo transportándolo en los camiones,
por que estos son pequeños o muy lentos.

A mayor ancho de los buses mas información puede mandar a la vez y por tanto es más
rápido el envío de información.
Por lo tanto en el ordenador, cuanto mayor sea el número de bits del bus de datos, más
fluido y rápido será el tráfico de un sitio a otro del ordenador. Para saber más vete al
siguiente enlace: Cable Bus y Tipos de Buses.

Velocidad bus datos y ancho de banda del bus: Normalmente el ancho de banda de los
bus ahora es de 32 o 64 bits (datos que transporta a la vez) y la velocidad a la que transporta
estos datos también se puede representar por MHz (millones de veces por segundo que
transporta su ancho de banda). Esta puede variar mucho en función del bus del que se trate(
cables, pistas, interior del componente ,etc.). Por ejemplo 533MHzbr
Como conclusión diremos que en la rapidez de un ordenador influyen varios factores:

- Número de bits que puede procesar por cada instrucción: Nº de bits internos o ancho de
banda del micro.

- El número de instrucciones que puede procesar por segundo: Frecuencia de trabajo

- La velocidad a la que pueden circular los datos de un sitio a otro: Velocidad bus datos y
ancho de banda del bus.

COMPONENTES DE UN ORDENADOR

La "caja" o torre es determinante para la buena ventilación del sistema. El tamaño de la


torre es directamente proporcional al número de las bahías que dispondremos para poder
colocar diversos componentes tales como unidades de almacenamiento.
La Fuente de Alimentación, es un montaje eléctrico/electrónico capaz de transformar la
corriente de la red eléctrica en una corriente que el ordenador pueda soportar. Tensión de
entrada 220V-Tensiones de salida de +-5 y +-12 voltios.

Si quieres saber más sobre las fuentes te recomendamos este enlace: Fuente de
Alimentación.

La "placa base" (mainboard),, o "placa madre" (motherboard), es el elemento principal


de todo ordenador, en el que se encuentran o al que se conectan todos los aparatos y
dispositivos. Debe ser compatible con el micro. Aquí puedes saber más: Placa Base.

Más abajo tienes la imagen de una placa base.

Tarjetas de expansión : elementos que hacen posible la comunicación con algunos


periféricos. Se conectan en las ranuras de expansión o slots, y a ellas se conectan los
periféricos. La función principal es transformar la señal enviada por el ordenador
(microprocesador) en señales que pueden reconocer y trabajar los periféricos y viceversa.
Tarjeta de vídeo, de audio, de red, etc.

Slots ó ranuras de expansión : Ranuras de plástico con conectores eléctricos, dónde se


insertan y controlan las tarjetas de expansión. Van unidas a la placa base y conectadas por
los buses de la placa base (pistas) al micro.

- Ranuras PCI: el estándar actual. En estas ranuras se suelen conectar casi todas las
tarjetas excepto quizá algunas tarjetas de vídeo 3D. Generalmente son blancas.

- Ranuras AGP: o más bien ranura, ya que se dedica exclusivamente a conectar tarjetas de
vídeo 3D, por lo que sólo suele haber una.

- Ranuras ISA: son las más veteranas, un legado de los primeros tiempos del PC.
Suficiente para conectar un módem o una tarjeta de sonido, pero la transmisión es muy
lenta para una tarjeta de vídeo.

- Ranuras SIMM y DIMM : Para módulos de ampliación de memoria RAM. Los módulos
SIMM están en desuso.

En los ordenadores es tan grande el tráfico de datos por todos sus buses que se necesita
alguien que dirija ese tráfico, y no solo valdrá con un elemento que lo dirija sino que hará
falta varios especializados, por ejemplo una para que dirija el tráfico de salida y llegada de
los datos al disco duro (controladora del disco duro), otro para decir por donde viajan los
datos al llegar a un punto hasta que llegar a la RAM, otro para controlar el flujo entre la
RAM y el micro, otro para definir cuando salen y por donde van los datos que salen del
micro a la pantalla, otro para definir que datos tienen preferencia, etc. Esto lo hacen las
llamadas controladoras.

Controladoras (interface) : controlan el flujo de datos entre el sistema (micro) y un


componente de hardware.
Son elementos incorporados en la placa base, a veces lo incorpora el propio componente, y
que tienen como objetivo la conexión (el control) de dispositivos como discos duros,
unidades de CD-Rom, unidades DVD o las tarjetas de expansión con la memoria. Las
controladoras son de dos tipos:

IDE/EIDE/ATA/SerialATA/ultraDMA

Controlan dispositivos IDE conectados en las ranuras o conectores IDE y SCSI/Fireware..


Un dispositivo IDE tiene un conector IDE, cable IDE (tarjeta para el dispositivo IDE si
hace falta) y debe conectarse a una ranura IDE para trabajar bajo un controlador IDE. Los
EIDE, ATA ó ultraDMA valen las controladoras IDE y un cable IDE, ya que solo son
controladoras IDE mejoradas.

Un dispositivo SCSI tiene un conector SCSI, cable SCSI, tarjeta controladora SCSI
(algunos la traen incorporada) y conectarse a una ranura SCSI para trabajar bajo un
controlador SCSI. Lo mismo para el Fireware que es un SCSI avanzado.

El "chipset“: mediante este elemento se han integrado en un solo componente los que
antes se encontraba en varias controladores. Se trata de agrupar en un solo componente
controladoras que todos los ordenadores necesitan. Dirige el tráfico de bits en la placa base,
como la forma en que interacciona (se comunica) el microprocesador con la memoria o la
caché, o el control de los puertos y slots ISA, PCI, AGP, USB. Viene insertado en la placa
base.
Las características del chipset y su grado de calidad marcarán los siguientes factores a
tener en cuenta:

1. Que obtengamos o no el máximo rendimiento del microprocesador.

2. Posibilidades de actualizar el ordenador (por ejemplo cantidad máxima de memoria).

3. Poder utilizar ciertas tecnologías más avanzadas de memorias y periféricos.

4. Compatibilidades: Tarjetas, micros y memorias. (con el micro elegido).

Ojo no confundir con el micro. El micro no se ve por que lleva encima el ventilador.

MEMORIA ROM: Su nombre viene del inglés Read Only Memory que significa
Memoria de Solo Lectura ya que la información que contiene puede ser leída pero no
modificada.

En ella se encuentra toda la información que el sistema necesita para poder funcionar
correctamente ya que los fabricantes guardan allí las instrucciones de arranque y el
funcionamiento coordinado del ordenador.

Al encender nuestro ordenador automáticamente comienza a funcionar la memoria ROM.


Por supuesto, aunque se apague, esta memoria no se borra. Esta configuración se guarda y
se mantiene sin borrar cuando se apaga la PC gracias a una pila que hay en la placa
principal. No se usa, actualmente se usa la Bios.

LA BIOS de un ordenador (Basic Input Operative System) es una memoria ROM, pero
con la facultad de configurarse según las características particulares de cada máquina (hay
datos que se pueden modificar no todos). Es un programa instalado en un chip de la placa
base, que se encarga del arranque y la configuración del ordenador. Sustituye a la ROM.
La pila del ordenador, o más correctamente el acumulador, se encarga de conservar los
datos de la BIOS cuando el ordenador está apagado. Sin ella, cada vez que encendiéramos
tendríamos que introducir las características del disco duro, del chipset, la fecha, la hora, el
inicio de Windows al arrancar, etc. El acumulador acaba de descargarse por completo
(como las baterías del móvil) y debe de cambiarse (por ejemplo cuando no cambia la fecha
en el ordenador).

La memoria principal o RAM (Random Access Memory, Memoria de Acceso Aleatorio)


es donde el ordenador guarda los datos de los programas que se están ejecutando en ese
momento y de donde coge las órdenes el micro.

A la hora de elegir una RAM tendremos en cuenta dos datos, la capacidad de


almacenamiento (32Mb, 64Mb, 128Mb, 256Mb, 512MB, 1GB, 3GB…) y también la
velocidad de transferencia de datos entre la RAM y el micro (en MHz millones de veces
que manda un bloque de información (ancho de banda del bus de la placa por segundo).

El almacenamiento es considerado temporal por que los datos y programas permanecen en


ella mientras que el ordenador este encendido. Al apagarse los datos que hay en ella se
pierden.

La RAM se puede ampliar con módulos de memoria (solo si escasea, ya que sino no
servirá para nada), pero si ponemos dos RAM con diferentes velocidades de transmisión las
2 trabajarán a la velocidad de la más baja. Existen varios tipos de RAM:

- DRAM : es "la original", y por tanto la más lenta (las hay para ranuras DIMMs o SIMMs
pero este tipo está obsoleto.

- DDRAM: A doble velocidad que la DRAM. Muy usada todavía.


- SDRAM: están sincronizadas con la velocidad de los buses de la placa, es decir los Mhz
del bus de la placa es a la velocidad que trabaja la RAM, por eso su velocidad se mide en
Mhz. Solo las hay módulos para ranuras DIMM. Hay muchas Ram derivadas de esta DDR-
SDRAM, PC100, PC133, etc.

- RIMM:. Es la gran rival de la SDRAM,, funcionan en un rango de 900 MHz y 1GHz. Está
por ver si será el modelo estándar de memoria, ya que sus fabricantes, obligan a los que
quieran utilizar su tecnología a pagar cuantiosas cantidades.

Aquí puedes saber más: Tipos de Memoria RAM

Memoria caché : Desde el punto de vista del hardware, existen dos tipos de memoria
caché; interna y externa (L1 o primaria y L2 o secundaria). La memoria caché interna está
incorporada en la CPU (micro) del ordenador, mientras que la externa se encuentra fuera de
la CPU entre el micro y la RAM.

La memoria Caché es una clase de memoria RAM especial de alta velocidad.

La CPU puede obtener las instrucciones y los datos ubicados en la memoria caché mucho
más rápidamente que las instrucciones y datos almacenados en la memoria principal
(RAM). En la caché se almacenan los datos que más utilizamos normalmente. El micro
mira primero en la caché y si no tiene los datos los obtiene de la RAM. La RAM no es
capaz de trabajar a la velocidad del micro, la Caché sí. Son de tamaño mucha más pequeño
que la RAM porque son mucho más caras. Su capacidad de almacenamiento suele ser de
Kbytes.

La memoria caché es como un tablero de anuncios en el que se colocan los papeles que se
utilizan con mayor frecuencia. Cuando se necesita la información del tablero de anuncios
(CACHE), simplemente se mira al tablero; si hay no están se buscará en el archivador
donde cabe más información pero es más lento encontrarla (RAM). La Ram no es capaz de
trabajar a la velocidad del micro la caché sí.
Memoria Virtual: Es una ayuda a la memoria RAM. Sirve como una ampliación auxiliar
de memoria cuando las cosas se ponen feas, es decir, cuando el sistema escasea de memoria
RAM. Cuando tenemos muchas aplicaciones abiertas y el tamaño de todas ellas supera el
total de memoria RAM física instalada, Windows mueve parte del contenido de la memoria
al disco duro, para dejar espacio libre para nuevas aplicaciones.

Lógicamente el ordenador se pone más lento, porque el disco duro en un almacén que
transmite los datos al micro mucho más lentos que la RAM. El archivo que especifica el
tamaño usado de memoria virtual se llama archivo de paginación (tamaño memoria virtual).

El Microprocesador

Microprocesador (CPU): es el verdadero ordenador, ya que se encarga de realizar todas


las operaciones de cálculo, y de controlar todo lo que sucede en el ordenador recibiendo
información y enviando órdenes (solo de la cache y de la RAM) para que los otros
componentes trabajen. Consta internamente de dos partes:

- Unidad aritmetica_logica(UAL): esta unidad realiza todos los cálculos matemáticos de


la CPU (le ayuda el coprocesador en las aritméticas). Se compone de un circuito complejo.
El ALU, puede sumar, restar, multiplicar, dividir, y realizar otros cálculos u operaciones
con los números binarios (función lógica SI por ejemplo).

- Unidad de control: este componente es responsable de dirigir el flujo (en qué orden
deben ir, y cuando) de instrucciones y de datos dentro de la CPU. Ordena lo que se hace en
el micro en cada momento.

A la hora de elegir un micro tendremos en cuenta lo primero el tipo (Intel Pentium o AMD
Athlon) que sea compatible con la placa base elegida y el chipset, el tipo de zócalo (donde
se inserta en la placa base).

Suelen se tipo socket LGA 775 (para los pentium 4) con mecanismo ZIF que es una
palanca para introducir y sacar el micro, o del tipo socket 939 (para Athlon 64) y la
frecuencia o velocidad. También es importante saber el número de bits (32 o 64) y el
tamaño de la memoria caché.

La CPU o micro se calienta y para ello se le pone un disipador del calor (ventilador).

Aquí puedes saber más: Tipos de Microprocesadores

Ventilador

El Micro (también llamado CPU) se calienta y para ello se le pone un disipador con un
ventilador, si nosotros le aumentamos la frecuencia de trabajo, la temperatura aumentará en
mayor medida y puede afectar en el rendimiento del equipo e incluso puede producir
cuelgues y mal funcionamiento. El ventilador queda en contacto con la CPU.

Los Puertos

Un puerto es por donde se recibe o envía información al ordenador desde el exterior. Por
ejemplo el ratón es un periférico, no pertenece propiamente al ordenador, por eso la
información que se envía desde el ratón al ordenador debe pasar por un puerto (conexión),
que será el puerto donde se conecta el ratón con el ordenador.

El puerto más usado actualmente para conectar casi todos los periféricos es el puerto USB.
De todas formas vamos a ver los tipos de puertos que nos podemos encontrar en un
ordenador mediante la siguiente imagen:
Los puertos serie (COM) : Ya en desuso aunque el PC incluye dos puertos serie.

Los puertos paralelos (LPT): Las impresoras recuerdan inmediatamente la imagen


mental del puerto paralelo.

Puertos PS/2: son un tipo de puerto serie, y a ellos se conectan el teclado y el ratón.

Puerto USB (Universal Serial Bus): es un estándar en los ordenadores de última


generación. Es totalmente Plug & Play, es decir, con sólo conectar el dispositivo y en
caliente (con el ordenador encendido), el dispositivo es reconocido e instalado de manera
inmediata. USB 1.0, 1.1, 2.0 cuanto más grande es el número mayor es la velocidad de
transferencia de datos entre el periférico conectado al puerto y el ordenador.

Puerto Fireware: Entrada y salida de datos a gran velocidad. Suele emplearse para
trasferir datos entre cámaras o video cámaras y el ordenado.

Conectores (puertos) VGA: se usan para conectar los monitores y son de color azul.

Puerto HDMI: Es el puerto mejor y más usado para conectar los monitores o pantallas. Es
un puerto que transmite audio y video a la vez (multimedia). Tienen un ancho de banda
(velocidad de transmisión) de hasta 5 gigabytes por segundo, por eso se utiliza para enviar
señales de alta definición HD. Puedes saber más sobre la alta definición en el siguiente
enlace: TV LCD FULL HD.

Aquí puedes ver el conector y puerto HDMI:

Tampoco hay que olvidar otro tipo de conectores que son ya habituales en los ordenadores
portátiles como los puertos infrarrojos que transmiten los datos sin cables físicos y los
transmisores bluetooth inalámbricos que generalmente se insertan en un puerto USB o en
tarjeta pcmcia que es otro puerto de comunicaciones.

La tecnología wíreless es para transmisión inalámbrica (por ondas como las de la radio)
entre ordenadores (redes) y usan transmisores wi-fi (antenas, router,etc) para la
transmisión de los datos. En los ordenador modernos viene el transmisor-receptor wi-fi, o
bluetooh incorporado para poder conectar a él componentes con esta tecnología
inalámbrica.

Lo último en transmisión de datos es por medio de la luz. Aquí tienes más


información: LI-FI

Podemos como conclusión decir que tenemos 3 tipos de transmisiones inalámbricas:


infrarrojos, bluetooth y wi-fi.

Para saber más sobre los puertos visita este enlace: Puertos de Comunicacion.

Periféricos: Aparatos externos conectados al ordenador. Permiten comunicarnos con el


ordenador. Según su función pueden ser de salida, de entrada y de entrada y salida.
El disco duro es la unidad de almacenamiento más importante y más grande del
ordenador. En él se guardan los programas, archivos, juegos, etc. que tenemos en nuestro
ordenador.

La información se almacena en unos finos platos o discos, generalmente de aluminio,


recubiertos por un material sensible a alteraciones magnéticas.

Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados
uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad. La
velocidad de rotación, incide directamente en el tiempo de acceso a los datos (rapidez).

En antiguas unidades era de 3.600 rpm (revoluciones por minuto). La mayoría de los
discos duros actuales giran ya a 7.200 rpm, Y actualmente, existen discos de alta gama aún
más rápidos, hasta 10.000 rpm. Dos son los datos importantes a la hora de elegir un disco
duro, su capacidad de almacenamiento (en GB) y su velocidad de rotación (en r.p.m.).

OJO Hay dos tipos de discos duros según el tipo de controladora IDE (o las IDE más
avanzadas) o SCSI (fireware).

La superficie de un disco del disco duro se divide en una serie de anillos concéntricos,
denominados pistas. Al mismo tiempo, las pistas son divididas en tramos de una misma
longitud, llamados sectores; normalmente en un sector se almacenan 512 bytes. Finalmente,
los sectores se agrupan en clúster o unidades de asignación (cantidad mínima de espacio
que se puede asignar a un archivo).

Por ejemplo si el clúster es de 4Kb, significa que para guardar un archivo de 1Kb se usan
4Kb, para guardar 5Kb se emplean 8Kb, por eso el clúster debe ser del menor tamaño
posible. Normalmente 4 sectores de 512 bytes constituyen un Clúster (racimo), y uno o más
Clúster forman una pista.

Lectora grabadora de CD-ROM o de DVD: el parámetro principal por el que se


distinguen en los comercios y la publicidad estas unidades, al margen de su marca, es la
velocidad de transferencia de la información, que en el caso de las grabadoras son 3 las
velocidades y se representan por un número seguido de una X (cada x 15Kb/s).

Ejemplo; 52x/24x/52x (lee regraba graba). En el caso de DVD vienen 2 una para CD y otra
para DVD.

Los DVD de doble capa son DVD en los que los datos se graban en el DVD en dos capas
una encima de otra (doble capacidad), para leer estos DVD se necesita un lector de DVD de
doble capa. (recordar capacidades de almacenamiento disquete, cd y dvd).

Otro dato importante es el buffer de memoria que es la cantidad de datos que puede
almacenar cuando está grabando para que en caso de que el ordenador no mande datos los
pueda leer desde la grabadora sin estropearse la grabación por falta de datos (en MB).

Monitores: Los monitores CRT son los de toda la vida: con su tubo de rayos catódicos;
como los de los televisores. Las características a tener en cuenta en este tipo de monitores
es el tamaño (en pulgadas) y su frecuencia o velocidad de refresco (número de veces que la
pantalla se dibuja por segundo (parpadeo). Ejemplo un monitor de 60Hz (mínimo
aceptable) se dibuja la pantalla 60 veces cada segundo.

Las pantallas TFT (cristal líquido LCD) Son los más recientes frutos de la tecnología
aplicada al mundo de los monitores planos, dejando atrás a los modelos de tubo CRT.
Aunque estos monitores no parpadean tienen una característica similar al a frecuencia de
refresco y es el tiempo de respuesta (tiempo que tarda en realizar un cambio en el monitor
pedido por el usuario), cuanto más pequeño sea mejor. Se mide en milisegundos (20ms
mínimo para evitar efectos de ver el rastro del movimiento del ratón por ejemplo). Estos
monitores tienen una resolución fija, si se cambia pierde calidad la imagen.

Para elegir un monitor tendremos en cuenta el tipo, la resolución (máxima),


frecuencia de refresco o tiempo de respuesta (en TFT) y el paso del punto.
RESUMEN FINAL

El microprocesador es uno de los componentes que hay que prestar más atención a la hora
de actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto
de elementos. Esta afirmación implica que es absurdo poner el último procesador hasta los
topes de Mhz con solo 32 o 64 Mb de RAM, o con una tarjeta gráfica deficiente, o un
sistema de almacenamiento (disco duro) lento y escaso.

Hay que hacer una valoración de todos los elementos del ordenador, actualmente en las
tiendas suelen venderse digamos "motores de un mercedes en la carrocería de un 600". Esto
tenemos que evitarlo.

Además del microprocesador, la velocidad general del sistema se verá muy influenciada
debido a la placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco
duro.

En esta foto de la placa base puedes ver muchos de los componentes explicados:
Sistema de información:

Un sistema de información es un conjunto de datos que interactúan entre sí con un fin


común.
En informática, los sistemas de información ayudan a administrar, recolectar, recuperar,
procesar, almacenar y distribuir información relevante para los procesos fundamentales y
las particularidades de cada organización.

La importancia de un sistema de información radica en la eficiencia en la correlación de


una gran cantidad de datos ingresados a través de procesos diseñados para cada área con el
objetivo de producir información válida para la posterior toma de decisiones.
Características de un sistema de información

Un sistema de información se caracteriza principalmente por la eficiencia que procesa los


datos en relación al área de acción. Los sistemas de información se alimentan de los
procesos y herramientas de estadística, probabilidad, inteligencia de negocio, producción,
marketing, entre otros para llegar a la mejor solución.

Un sistema de información se destaca por su diseño, facilidad de uso, flexibilidad,


mantenimiento automático de los registros, apoyo en toma de decisiones críticas y
mantener el anonimato en informaciones no relevantes.

Componentes de un sistema de información


Los componentes que forman un sistema de comunicación son:

1. la entrada: por donde se alimentan los datos,


2. el proceso: uso de las herramientas de las áreas contempladas para relacionar, resumir o
concluir,
3. la salida: refleja la producción de la información, y
4. la retroalimentación: los resultados obtenidos son ingresados y procesados nuevamente.

5. Los elementos que constituyen un sistema de información se agrupan en las tres


dimensiones que abarca el sistema:

 dimensión organización: forma parte de la estructura de la organización, por ejemplo, las


bases de modelos de negocios o el gerente de diálogo.
 dimensión personas: fabrican y producen la sinergia necesaria para que el sistema
funcione, por ejemplo, la introducción y utilización de las bases de datos.
 dimensión tecnología: constituye la implementación para la formación de la estructura, por
ejemplo, sala de servidores y sistemas de reserva de energía.

Ciclo de vida de un sistema de información
El ciclo de vida de un sistema de información es contínuo y se compone de las siguientes
fases:

1. Investigación preliminar, identificación de fortalezas y amenazas


2. Definición de las necesidades y requerimientos
3. Diseño
4. Desarrollo y documentación del software
5. Pruebas
6. Implementación y mantenimiento
7. Identificación de debilidades y oportunidades
Tipos de sistemas de información
En la cultura organizacional, existen varios tipos de sistemas de información según el nivel
operacional en que se utilicen. Algunos de los sistemas más comunes se encuentran a
continuación:

 para procesamiento de datos (TPS: Traditional processing system): nivel operativo,


destinado a procesar grandes volúmenes de información alimentando grandes bases de
datos.
 sistema de expertos o basados en el conocimiento (KWS: Knowledge working systems):
nivel operativo, selecciona la mejor solución para el problema presentado.
 para la administración y gerenciales (MIS: Management information systems): nivel
administrativo, gestiona y elabora informes periódicos.
 para la toma de decisiones (DSS: Decision support systems): nivel estratégico, se destaca
por su diseño y inteligencia que permite una adecuada selección e implementación de
proyectos.
 para ejecutivos (EIS: Executive information systems): nivel estratégico, sistema
personalizado para cada ejecutivo para que pueda ver y analizar datos críticos.
 sistemas funcionales relacionados con los procesos internos de la organización: forman
la base de los sistemas de información para ejecutivos. Algunas de las más conocidas
implementadas para las necesidades de cada área son:
 Sistema de información de marketing (SIM)
 Sistema de información de producción (SIP)
 Sistema de información financiera (SIF)
 Sistema de información de recursos humanos (SIRH)
 Sistema de información para directivos (SDD)
 Sistema de información geográfica (SIG)
 Sistema de información legislativa (SIL)

Campo de Dato, Registro, Archivo y Base de Datos


DEFINICION DE CAMPO, REGISTRO, ARCHIVO, BASE DE DATOS

CAMPO: En informática, un campo es un espacio de almacenamiento para un dato en


particular. En las bases de datos, un campo es la mínima unidad de información a la que se
puede acceder; un campo o un conjunto de ellos forman un registro, donde pueden existir
campos en blanco, siendo éste un error del sistema. En las hojas de cálculo los campos son
llamados celdas.
La mayoría de los campos tienen atributos asociados a ellos. Por ejemplo, algunos campos
son numéricos mientras otros almacenan texto, también varía el tamaño de estos.
Adicionalmente, cada campo tiene un nombre, hay un tipo de campo que es el generico o
tambien llamado llave.

EJEMPLO: Una celda en microsoft office excel

REGISTRO: Un registro es un conjunto de campos agrupados.

EJEMPLO: Un grupo de celdas, la hoja de la informacion de los compañeros

ARCHIVO: Un archivo informático es un conjunto de información que se almacena en


algún medio de escritura que permita ser leído o accedido por una computadora. Un archivo
es identificado por un nombre y la descripción de la carpeta o directorio que lo contiene.
Los archivos informáticos se llaman así porque son los equivalentes digitales de los
archivos en tarjetas, papel o microfichas del entorno de oficina tradicional. Los archivos
informáticos facilitan una manera de organizar los recursos usados para almacenar
permanentemente información dentro de un computador.

A continuación se explica los sistemas de archivos y gestores de archivos

SISTEMAS DE ARCHIVOS Y GESTORES DE ARCHIVOS: La manera en que una


computadora organiza, da nombre, almacena y manipula los archivos se denomina
globalmente como su sistema de archivos. Todas las computadoras tienen al menos un
sistema de archivos; algunas computadoras permiten usar varios sistemas de archivos
diferentes. Por ejemplo, en las computadoras Windows más recientes, se reconocen los
antiguos sistemas de archivos FAT y FAT32 de las versiones antiguas de Windows,
además del sistema de archivos NTFS que es el sistema de archivos normal en las versiones
recientes de Windows. NTFS no es más moderno que FAT32; ha existido desde
que Windows NT se publicó en 1993.
Cada sistema de archivos tiene sus propias ventajas y desventajas. La FAT estándar
solamente permite nombres de archivo de ocho bytes (u ocho caracteres de solo 1 byte)
(más una extensión de tres bytes/caracteres) sin espacios, por ejemplo, mientras que NTFS
permite nombres mucho más largos que pueden contener espacios, y tener varias letras
unicode. Puede llamar a un archivo Registros de nóminas en NTFS, mientras que en FAT
estaría limitado a algo como [Link] (salvo que estuviera usando VFAT, una extensión
de FAT que permite nombres de archivo largos).
Los programas gestores o administradores de archivos son utilidades que le permiten
manipular archivos directamente. Le permiten mover, crear, borrar y renombrar archivos y
carpetas, aunque no le permiten realmente leer el contenido de un archivo o almacenar
información en él. Cada sistema informático proporciona al menos un programa gestor de
archivos para su sistema de archivos nativo. En Windows, el gestor de archivos usado más
comúnmente es Windows Explorer.

La manera en que una computadora organiza, da nombre, almacena y manipula los archivos
se denomina globalmente como su sistema de archivos. Todas las computadoras tienen al
menos un sistema de archivos; algunas computadoras permiten usar varios sistemas de
archivos diferentes. Por ejemplo, en las computadoras Windows más recientes, se
reconocen los antiguos sistemas de archivos FAT y FAT32 de las versiones antiguas de
Windows, además del sistema de archivos NTFS que es el sistema de archivos normal en
las versiones recientes de Windows. NTFS no es más moderno que FAT32; ha existido
desde que Windows NT se publicó en 1993.
Cada sistema de archivos tiene sus propias ventajas y desventajas. La FAT estándar
solamente permite nombres de archivo de ocho bytes (o ocho caracteres de solo 1 byte)
(más una extensión de tres bytes/caracteres) sin espacios, por ejemplo, mientras que NTFS
permite nombres mucho más largos que pueden contener espacios, y tener varias letras
unicode. Puede llamar a un archivo Registros de nóminas en NTFS, mientras que en FAT
estaría limitado a algo como [Link] (salvo que estuviera usando VFAT, una extensión
de FAT que permite nombres de archivo largos).
Los programas gestores o administradores de archivos son utilidades que le permiten
manipular archivos directamente. Le permiten mover, crear, borrar y renombrar archivos y
carpetas, aunque no le permiten realmente leer el contenido de un archivo o almacenar
información en él. Cada sistema informático proporciona al menos un programa gestor de
archivos para su sistema de archivos nativo. En Windows, el gestor de archivos usado más
comúnmente es Windows Explorer.

EJEMPLO DE ARCHIVO: Una carpeta almacenada en windows, un archivo historico.

BASE DE DATOS: Una base de datos o banco de datos (en inglés: database) es un
conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente
para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos
compuesta en su mayoría por documentos y textos impresos en papel e indexados para su
consulta. En la actualidad, y debido al desarrollo tecnológico de campos como
la informática y la electrónica, la mayoría de las bases de datos están en formato digital
(electrónico), que ofrece un amplio rango de soluciones al problema de almacenar datos.
Existen unos programas denominados sistemas gestores de bases de datos, abreviado
SGBD, que permiten almacenar y posteriormente acceder a los datos de forma rápida y
estructurada. Las propiedades de estos SGBD, así como su utilización y administración, se
estudian dentro del ámbito de la informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas.
También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la
información experimental.
Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se
encuentran protegidos por las leyes de varios países. Por ejemplo en España, los datos
personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de
Carácter Personal (LOPD).

TIPOS DE BASES DE DATOS:

BASE DE DATOS ESTATICAS

Éstas son bases de datos de sólo lectura, utilizadas primordialmente para almacenar datos
históricos que posteriormente se pueden utilizar para estudiar el comportamiento de un
conjunto de datos a través del tiempo, realizar proyecciones y tomar decisiones.

BASES DE DATOS DINAMICAS


Éstas son bases de datos donde la información almacenada se modifica con el tiempo,
permitiendo operaciones como actualización y adición de datos, además de las operaciones
fundamentales de consulta. Un ejemplo de esto puede ser la base de datos utilizada en un
sistema de información de una tienda de abarrotes, una farmacia, un videoclub, etc.

BASES DE DATOS BIBLIOGRAFICAS

Solo contienen un surrogante (representante) de la fuente primaria, que permite localizarla.


Un registro típico de una base de datos bibliográfica contiene información sobre el autor,
fecha de publicación, editorial, título, edición, de una determinada publicación, etc. Puede
contener un resumen o extracto de la publicación original, pero nunca el texto completo,
porque sino estaríamos en presencia de una base de datos a texto completo (o de fuentes
primarias—ver más abajo). Como su nombre lo indica, el contenido son cifras o números.
Por ejemplo, una colección de resultados de análisis de laboratorio, entre otras.

BASES DE DATOS DE TEXTO COMPLETO


Almacenan las fuentes primarias, como por ejemplo, todo el contenido de todas las
ediciones de una colección de revistas científicas.

DIRECTORIOS

Un ejemplo son las guías telefónicas en formato electrónico.

BASES DE DATOS DE INFORMACION BIOLOGICA


Son bases de datos que almacenan diferentes tipos de información proveniente de las
ciencias de la vida o médicas. Se pueden considerar en varios subtipos:
Aquellas que almacenan secuencias de nucleótidos o proteínas.
Las bases de datos de rutas metabólicas
Bases de datos de estructura, comprende los registros de datos experimentales sobre
estructuras 3D de biomoléculas
Bases de datos clínicas
Bases de datos bibliográficas (biológicas)

Redes de computadoras

Una red de computadoras (también llamada red de ordenadores o red informática) es


un conjunto de equipos nodos y software conectados entre sí por medio de dispositivos
físicos o inalámbricos que envían y reciben impulsos eléctricos, ondas electromagnéticas o
cualquier otro medio para el transporte de datos, con la finalidad de compartir información,
recursos y ofrecer servicios.
Como en todo proceso de comunicación, se requiere de un emisor, un mensaje, un medio y
un receptor. La finalidad principal para la creación de una red de ordenadores es compartir
los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad
de la información, aumentar la velocidad de transmisión de los datos y reducir el costo. Un
ejemplo es Internet, el cual es una gran red de millones de ordenadores ubicados en
distintos puntos del planeta interconectados básicamente para compartir información y
recursos.
La estructura y el modo de funcionamiento de las redes informáticas actuales están
definidos en varios estándares, siendo el más importante y extendido de todos ellos el
modelo TCP/IP utilizado como base para el modelo de referencia OSI. Este último, concibe
cada red como estructurada en siete capas con funciones concretas pero relacionadas entre
sí (en TCP/IP se habla de cuatro capas). Debe recordarse que el modelo de referencia OSI
es una abstracción teórica, que facilita la comprensión del tema, si bien se permiten ciertos
desvíos respecto a dicho modelo.

Historia
El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En
1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire,
a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creados
los miniordenadores. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores
personales. En 1981, IBM introduce su primer PC. A mitad de la década de 1980 los PC
comienzan a usar los módem para compartir archivos con otros ordenadores, en un rango
de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a
punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad,
especialmente ADSL en el 1980 .

Descripción La comunicación por medio de una red se lleva a cabo en dos diferentes
categorías:

La capa física y la capa lógica.


La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse
con otros equipos dentro de la red, como, por ejemplo, las tarjetas de red, los cables, las
antenas, etc. Pertenecen a la capa física las características materiales (componentes y
conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión
de los datos por los medios físicos, y en su correspondiente recepción.
La comunicación a través de la capa lógica se rige por normas muy rudimentarias que por
sí mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es
posible construir los denominados protocolos, que son normas de comunicación más
complejas (mejor conocidas como de alto nivel), capaces de proporcionar servicios que
resultan útiles.
Los protocolos son un concepto muy similar al de los idiomas de las personas. Si dos
personas hablan el mismo idioma, y respetan ciertas reglas (tales como hablar y escucharse
por turnos), es posible comunicarse y transmitir ideas/ información.
La razón más importante (quizá la única) sobre por qué existe diferenciación entre la capa
física y la lógica es sencilla: cuando existe una división entre ambas, es posible utilizar un
número casi infinito de protocolos distintos, lo que facilita la actualización y migración
entre distintas tecnologías.

Componentes básicos de las redes


Para poder formar una red se requieren elementos: hardware, software y protocolos. Los
elementos físicos se clasifican en dos grandes grupos: dispositivos de usuario final (hosts) y
dispositivos de red. Los dispositivos de usuario final incluyen los computadores,
impresoras, escáneres, y demás elementos que brindan servicios directamente al usuario, y
los segundos son todos aquellos que conectan entre sí a los dispositivos de usuario final,
posibilitando su intercomunicación.
El fin de una red es interconectar los componentes hardware de una red , y por tanto,
principalmente, los ordenadores individuales, también denominados hosts, a los equipos
que ponen los servicios en la red, los servidores, utilizando el cableado (o tecnología
inalámbrica) soportada por la electrónica de red y unidos por cableado (o radiofrecuencia).
En todos los casos la tarjeta de red se puede considerar el elemento primordial, sea parte de
un ordenador, de un conmutador, de una impresora, etc. y sea de la tecnología que sea
(Ethernet, Wi-Fi, Bluetooth, etc.)

Clasificación de las redes


Una red puede recibir distintos calificativos de clasificación sobre la base de distintas
taxonomías: alcance, tipo de conexión, tecnología, etc.
Por alcance
Red de área personal (Personal Area Network, PAN) es una red de ordenadores usada
para la comunicación entre los dispositivos de el Ordenador cerca de una persona.

 Red inalámbrica de área personal (Wireless Personal Area Network, WPAN), es una
red de ordenadores inalámbrica para la comunicación entre distintos dispositivos (tanto
ordenadores, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de
audio, impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos
pocos metros y para uso personal, así como fuera de ella. El medio de transporte puede
ser cualquiera de los habituales en las redes inalámbricas pero las que reciben esta
denominación son habituales en Bluetooth.

 Red de área local (Local Area Network, LAN), es una red que se limita a un área
especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un
avión. Las redes de área local a veces se llaman una sola red de localización. No
utilizan medios o redes de interconexión públicos.

 Red de área local inalámbrica (Wireless Local Area Network, WLAN), es un sistema
de comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las
redes de área local cableadas o como extensión de estas.

 Red de área de campus (Campus Area Network, CAN), es una red de ordenadores de
alta velocidad que conecta redes de área local a través de un área geográfica limitada,
como un campus universitario, una base militar, hospital, etc. Tampoco utiliza medios
públicos para la interconexión.

 Red de área metropolitana (Metropolitan Area Network, MAN) es una red de alta
velocidad (banda ancha) que da cobertura en un área geográfica más extensa que un
campus, pero aun así limitado. Por ejemplo, una red que interconecte los edificios
públicos de un municipio dentro de la localidad por medio de fibra óptica.

 Red de área amplia (Wide Area Network, WAN), son redes informáticas que se
extienden sobre un área geográfica extensa utilizando medios como: satélites, cables
interoceánicos, Internet, fibras ópticas públicas, etc.

 Red de área de almacenamiento (Storage Area Network, SAN), es una red concebida
para conectar servidores, matrices (arrays) de discos y librerías de soporte, permitiendo
el tránsito de datos sin afectar a las redes por las que acceden los usuarios.

 Red de área local virtual (Virtual LAN, VLAN), es un grupo de ordenadores con un
conjunto común de recursos a compartir y de requerimientos, que se comunican como
si estuvieran adjuntos a una división lógica de redes de ordenadores en la cual todos los
nodos pueden alcanzar a los otros por medio de broadcast (dominio de broadcast) en la
capa de enlace de datos, a pesar de su diversa localización física. Este tipo surgió como
respuesta a la necesidad de poder estructurar las conexiones de equipos de un edificio
por medio de software,10 permitiendo dividir un conmutador en varios virtuales.
Por topología física

Topologías físicas de red.

 Red en bus (bus o «conductor común») o Red lineal (line): se caracteriza por tener un
único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan
los diferentes dispositivos.
 Red en anillo (ring) o Red circular: cada estación está conectada a la siguiente y la
última está conectada a la primera. Además, puede compararse con la red en cadena
margarita (daisy chain).
 Red en estrella (star): las estaciones están conectadas directamente a un punto central y
todas las comunicaciones se han de hacer necesariamente a través de este.
 Red en malla (mesh): cada nodo está conectado a todos los otros.
 Red en árbol (tree) o red jerárquica: los nodos están colocados en forma de árbol.
Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en
estrella interconectadas salvo en que no tiene un nodo central.
 Red híbrida o red mixta: se da cualquier combinación de las anteriores. Por ejemplo,
circular de estrella, bus de estrella, etc

La Telemática

El concepto de telemática refiere a la combinación de la informática y de la tecnología de la


comunicación para el envío y la recepción de datos. La noción se asocia a diferentes técnicas,
procesos, conocimientos y dispositivos propios de las telecomunicaciones y de la computación.

Aquello que se entiende por telemática, por lo tanto, es muy Con formato: Color de fuente: Texto
1
amplio ya que abarca el diseño, el análisis y la aplicación de todos
los servicios y de la infraestructura que permiten procesar,
almacenar y transmitir información.
El intercambio de mensajes a través de aplicaciones como WhatsApp forma parte de la telemática.
La persona que ingresa a la aplicación desde su teléfono celular (móvil), escribe un mensaje y se lo
envía a otro usuario está haciendo uso de la telemática.

Lo mismo ocurre con quien envía y recibe mensajes de correo electrónico. Supongamos que, a lo
largo de una jornada de trabajo, el dueño de una empresa intercambia cinco emails con el gerente
de marketing acerca de un proyecto a desarrollar. Dichas comunicaciones son posibles gracias a la
telemática.

Los servicios de comercio electrónico (conocidos como e-commerce), las transmisiones digitales
de televisión, el posicionamiento geográfico mediante GPS y las herramientas que permiten el
desarrollo de un proceso educativo a distancia también forman parte del ámbito de la telemática.

Las personas que se especializan en estas cuestiones pueden formarse como técnicos en
telemática o ingenieros en telemática, de acuerdo al plan de estudio. Esta formación las habilita
para trabajar en diversas áreas de las telecomunicaciones y en la gestión de redes, por ejemplo.

Por lo tanto, ambos profesionales, el técnico y el ingeniero telemático, están preparados para
asumir una amplia gama de puestos de trabajo, y esto explica en gran parte la popularidad de
estas carreras en muchos países. Dicho esto, veamos una lista de algunas de las tareas que pueden
llevar a cabo:

Con formato: Color de fuente: Texto


1

* al trabajar con entornos LAN, WAN o MAN, deben


ser capaces de asumir la operación, el mantenimiento, la planificación, el despliegue y la
integración de tecnologías, entre otras tareas, ya sea con instalaciones basadas en conexión por
cable o inalámbrica, en redes privadas o Internet. Todo esto con el propósito de prestar servicios
de datos o de voz para un gran número de aplicaciones de variada complejidad;

* supervisar, administrar y participar del desarrollo y suministro de sistemas y equipos de


telecomunicación, o bien prestar asistencia técnica si dichas tareas están a cargo de otra persona;

* dado que el estudio formal de la telemática prepara profesionales capaces de embarcarse en


trabajos a gran escala, algunos proyectos de telecomunicación pueden enfocarse en viviendas,
urbanizaciones o polígonos industriales, tanto en la elaboración como en el despliegue y puesta en
marcha de grandes redes;
* diseñar y auditar redes. Auditar una red significa tomar una serie de medidas preestablecidas
para analizar, estudiar y reunir información acerca de la misma, con el propósito de determinar su
estado para saber si cumple con los requisitos de una organización;

* diseñar, analizar e implementar herramientas y sistemas de seguridad, ya sea para el


almacenamiento de datos o para su transmisión, y también para el acceso a sistemas y redes;

* diseñar aplicaciones que se orienten al comercio telemático y a la administración.

Estos profesionales deben contar con ciertos conocimientos fundamentales de informática, como
ser los principios de un sistema operativo y la arquitectura de un ordenador o servidor, ya que
resultan necesarios para la mayoría de sus tareas. Del mismo modo, deben dominar el diseño, la
implementación el mantenimiento de bases de datos, tener presentes las características de cada
capa de la pila de protocolos TCP/IP, y ser capaces de programar dispositivos de acceso a
información en ambiente Windows y Unix. A pesar de la amplitud de estas carreras, destaca una
clara orientación a las comunicaciones.

La Ofimática
Ofimática, a veces también llamado burótica, designa al conjunto de técnicas, aplicaciones y
herramientas informáticas que se utilizan en funciones de oficina para optimizar, automatizar,
mejorar tareas y procedimientos relacionados

Qué es la Innovación:
Innovación es una acción de cambio que supone una novedad. Esta palabra procede del
latín innovatĭo, -ōnis que a su vez se deriva del término innovo, -are―hacer nuevo‖,
―renovar‖, que se forma con in- ―hacia dentro‖ y novus ―nuevo‖.
La innovación se acostumbra a asociar con la idea de progreso y búsqueda de nuevos
métodos, partiendo de los conocimientos que le anteceden, a fin de mejorar algo que ya
existe, dar solución a un problema o facilitar una actividad.

La innovación es una acción continua a lo largo del tiempo y abarca diferentes campos del
desarrollo humano.

Entre otros términos que tienen un significado similar y se pueden emplear como sinónimo
están adelanto, invento, reforma, renovación, entre otros.

Innovación tecnológica
El campo de la tecnología se caracteriza por un continuo avance. La innovación, por lo
tanto, es una de las características de la tecnología que supone la creación de nuevos
dispositivos, en muchos casos, a partir de la modificación de elementos ya existentes.
Por tanto, la innovación conlleva a la competitividad y desarrollo de bienes y
servicios tecnológicos de alta calidad.
La introducción de nuevos cambios permite la creación de nuevos productos que,
seguramente en el futuro también se verán sometidos a procesos de innovación según las
diversas necesidades tecnológicas que se deban cubrir.

Entre los ejemplos de innovación tecnológica que se pueden mencionar están los diversos
dispositivos electrónicos, como los teléfonos móviles de última generación que contienen
diversas aplicaciones útiles para los usuarios.

Innovación empresarial
En el mundo empresarial la innovación es uno de los elementos que se tienen en cuenta a la
hora de tener éxito comercial.

El concepto de innovación empresarial puede hacer referencia a la introducción de nuevos


productos o servicios en el mercado y también a la organización y gestión de una
empresa.
En ocasiones los productos o servicios comercializados no suponen un cambio en sí, ya que
la novedad puede consistir en un nuevo enfoque a productos ya existentes.
La innovación empresarial puede suponer una renovación de productos o de la propia
empresa, generalmente actualizándose a las demandas del mercado.
En muchos casos, el éxito de una empresa depende del grado de innovación, debido a que
esta característica puede ser el rasgo distintivo que le haga tener éxito.

Innovación educativa
La Informática no puede ser una asignatura más, sino la herramienta que pueda ser útil a todas las
materias, a todos los docentes y a la escuela misma, en cuanto institución que necesita
una organización y poder comunicarse con la comunidad en que se encuentra. Entre las aplicaciones más
destacadas que ofrecen las nuevas tecnologías se encuentra la multimedia que se inserta rápidamente en
el proceso de la educación y ello es así, porque refleja cabalmente la manera en que el alumno piensa,
aprende y recuerda, permitiendo explorar fácilmente palabras, imágenes, sonidos, animaciones y videos,
intercalando pausas para estudiar, analizar, reflexionar e interpretar en profundidad
la información utilizada buscando de esa manera el deseado equilibrio entre la estimulación sensorial y
la capacidad de lograr el pensamiento abstracto. En consecuencia, la tecnología multimedia se convierte
en una poderosa y versátil herramienta que transforma a los alumnos, de receptores pasivos de la
información en participantes activos, en un enriquecedor proceso de aprendizaje en el que desempeña un
papel primordial la facilidad de relacionar sucesivamente distintos tipos de información, personalizando
la educación, al permitir a cada alumno avanzar según su propia capacidad. No obstante, la mera
aplicación de la multimedia en la educación no asegura la formación de mejores alumnos y futuros
ciudadanos, si entre otros requisitos dichos procesos no van guiados y acompañados por el docente. El
docente debe seleccionar criteriosamente el material a estudiar a través del computador; será necesario
que establezca una metodología de estudio, de
La innovación dentro del área de la educación supone introducir cambios novedosos en
esta área para mejorar el proceso de enseñanza y aprendizaje.
La innovación educativa puede afectar a varios elementos como los recursos materiales
utilizados, por ejemplo, la introducción de dispositivos interactivos como las pizarras
digitales en el aula; así como a las actividades, la temporalización o los métodos de
evaluación.

En ocasiones, los cambios que se introducen afectan a todo el proceso educativo. Por
ejemplo, los procesos formativos de educación a distancia suponen una innovación
educativa que conllevan cambios a todos los niveles.

Innovación disruptiva
El concepto de ―innovación disruptiva‖ se utiliza especialmente en el área empresarial. Se
refiere un proceso de cambio innovador orientado a un público minoritario y que se
convierte con rapidez en una realidad con gran demanda comercial.
La innovación disruptiva se da cuando nuevas empresas presentan nuevos productos,
servicios o modelos de negocio que superan en el mercado a empresas líderes del mismo
sector.

Un ejemplo puede ser Skype, que supuso una innovación y un éxito en el mercado de las
telecomunicaciones.

Innovación y creatividad
En muchos casos, la innovación está fuertemente unida a la creatividad, el descubrimiento
y la invención. Para realizar un cambio que suponga introducir algo nuevo es necesario un
proceso creativo.

En ocasiones, la creatividad representa una variación de algo ya existente, por ejemplo,


mediante una asociación de ideas. Los conceptos de innovación y creatividad se dan en
diversos ámbitos como en la industria, la empresa, la educación y el arte.

7 características esenciales de la innovación


Es innovación todo aquel cambio que supone una novedad, mejora, solución,
simplificación o adaptación de lo ya existente. Se asocia a la idea del progreso y el
bienestar.
Una innovación puede incidir en aspectos técnicos, materiales o, incluso, conceptuales y
por lo general trae un considerable mejoramiento de la vida a nivel social, económico,
cultural o tecnológico.

A continuación te comentamos y ejemplificamos las 7 características esenciales que debe


tener toda innovación.

Innovación es cambio

Innovar es siempre cambiar: hacer de lo ya existente algo nuevo, mejorarlo, modificarlo,


adaptarlo, simplificarlo. Puede cambiarse un proceso, un método, un formato, un
instrumento, un producto, un material.

Un ejemplo de cambio innovador es el lector electrónico (o e-reader), que permite leer y


almacenar una biblioteca gigantesca en la palma de nuestra mano gracias al libro
electrónico (también conocido como e-book). Y fue apenas un cambio de formato: del libro
de papel al libro digital.
Innovación es mejoramiento

Toda innovación debe ser también un mejoramiento con respecto a lo que existía
anteriormente. Muchos aspectos suponen una mejoría, bien porque ahorran tiempo, hacen
más efectivo o fácil un proceso, reducen costos, o bien porque su impacto medioambiental
es menor, etc.

Una innovación a este respecto lo ha supuesto el teléfono inteligente, que aúna un


sinnúmero de funciones: reproductor musical, cámara fotográfica, navegador web,
calculadora, cuaderno de apuntes y, claro, todavía sirve como teléfono.
Innovación es solución

Innovar también supone resolver problemas o situaciones innecesariamente complejas para


hacer nuestra vida más fácil.

La creación del GPS (o sistema de posicionamiento global) es un ejemplo de ello. Atrás


quedaron complicados mapas de rutas y coordenadas; ahora es posible recorrer una buena
parte del mundo sin perdernos con este sistema.
Innovación es simplificación

Lograr simplificar procesos es otro de los desafíos de la innovación. Ahorrarnos energía y


tiempo en pasos, procesos o métodos que no son fundamentales es otra de las
características claves de una innovación.

Un ejemplo de simplificación son los buscadores en internet, que nos permiten navegar por
el ciberespacio sin abrumarnos por la sobreabundancia de información. Google, en este
sentido, tiene un avanzado sistema de búsqueda que clasifica la información que buscamos
según su utilidad, calidad y adecuación a nuestros intereses.

Innovación es hacer más fácil


Innovar es, por lo tanto, solucionar problemas y simplificar procesos, y esto también
significa hacerlo todo más fácil para las personas.

Por ejemplo, la llegada de las pantallas táctiles ahora nos permite usar nuestros dispositivos
electrónicos (teléfonos, tabletas, computadoras) de manera directa e intuitiva, sin que
necesitemos un largo manual de usuario para ello.

Innovación es adaptabilidad

Innovar también implica adaptarse a las nuevas realidades. El mundo cambia


constantemente, y también nuestras necesidades cotidianas.

Un ejemplo de adaptación es la fabricación de carros alimentados por energía eléctrica, que


no solo son más amables con el medio ambiente, sino que previenen una potencial escasez
futura de hidrocarburos.
Innovación es progreso

Innovación, en definitiva, implica cambiar, mejorar, solucionar, facilitar y simplificar


procesos, métodos, tareas, todo lo cual se resume en progreso para la sociedad: la
posibilidad de hacer más con menos y de tener una mejor vida que en el pasado.

Un ejemplo de progreso traído por la innovación es la llamada Revolución Ford, que


supuso la posibilidad de fabricar en serie un producto tan complejo como un automóvil,
abaratando los costos y haciéndolo accesible a todos.

Las 9 innovaciones tecnológicas más sorprendentes


Las innovaciones tecnológicas son inventos o creaciones que presentan una novedad en
la forma de suplir las necesidades de la sociedad actual que sin el avance de la
tecnología no existirían.
Gracias al avance extraordinario de la ciencia en los últimos años, la tecnología creada e
implementada con la ayuda de ingenieros, ha hecho que las innovaciones del siglo XXI
sean tan sorprendentes que han superado la ficción.

A continuación, algunas de las innovaciones tecnológicas más sorprendentes que


revolucionaron el mundo creando el que conocemos hoy.
1. GPS

El Sistema de posicionamiento global GPS cambió la forma que nos desplazamos. Gracias
a este sistema creado inicialmente sólo para uso militar, hoy podemos situarnos en un lugar
desconocido y encontrar caminos sin la necesidad de un mapa ni de conocimiento previo.

El GPS usa los 24 satélites que orbitan nuestro planeta Tierra para entregar la ubicación
exacta directamente a nuestro dispositivo electrónico. Desde el diseño de mapas en II a.C. y
el invento de la brújula en 1090, el GPS constituye una innovación tecnológica
sorprendente para ubicarnos en este mundo.

2. Nanorobots
Los nanorobots son sistemas diseñados para desempeñar tareas específicas en dimensiones
de escala nanométrica (milmillonésima parte de un metro). Esta gran innovación
tecnológica del catalán Samuel Sanchez (1980-) fue pensada como una cura al cáncer.
Gracias a esta innovación tecnológica, Samuel Sanchez fue elegido en 2014 como el Mejor
innovador del año menor de 35 años en la famosa revista de MIT (Massachusetts institute
of technology).

La nanotecnología ha avanzado lo suficiente para que hoy, además de administrar


fármacos, nanorobots de ADN puedan identificar tumores dentro del cuerpo y descargar la
dosis de trombina para que no puedan seguir alimentándose y mueran. Estos nanorobots se
mueven por sí mismos, reaccionan a estímulos y son 5.000 veces más pequeños que la
punta de una aguja. Ciertamente, una innovación tecnológica sorprendente después del
invento de la vacuna en 1796.

3. Transporte de levitación magnética Maglev


Maglev, por sus siglas en inglés magnetic levitation, es un transporte que usa la levitación
magnética para alcanzar velocidades máximas de hasta 590 km/h. La levitación magnética
para el transporte terrestre es una de las proezas tecnológicas más innovadoras para el
transporte de pasajeros.

De esta manera, gracias a la propulsión creada en base a la ciencia del magnetismo, se


elimina la fricción de los rieles aumentando significativamente la velocidad, la seguridad y
disminuyendo la emisión de carbono. Maglev se ha convertido en la innovación tecnológica
del transporte público del futuro.

4. Internet
Internet ha generado una revolución en la comunicación moderna desde que se estableció la
primera red de conexión en 1969. Esta tecnología ha sido clave para las innovaciones
creadas a partir del siglo XXI y en nuestra forma de vida.

Gracias a Internet, hoy estamos más conectados que nunca en una sociedad parcialmente
globalizada. Podemos compartir momentos con familiares y amigos e información a través
de la red casi instantáneamente. Internet, junto con la web, ha sido una de las innovaciones
tecnológicas más sorprendentes que han modelado nuestra sociedad actual.

5. Teléfono inteligente
El teléfono inteligente ha reemplazado la forma de comunicarnos, de registrar, de pensar y
hasta de pagar. Gracias a este dispositivo electrónico que casi todos los individuos de hoy
tenemos, es posible hacer todas las tareas de forma remota y en cualquier lugar.

El teléfono inteligente o smartphone, ha aumentado nuestra movilidad e individualidad


donde nuestros contactos, documentos y placeres pueden ser sujetas en la palma de nuestras
manos. Esta innovación tecnológica ha reemplazado al teléfono, la televisión y modificado
nuestra forma de comunicación social.

6. Marcapasos

El marcapasos es una innovación tecnológica sorprendente desde su invención en 1958. El


avance de la ciencia médica logra con el marcapasos introducir un aparato electrónico
dentro del cuerpo humano para estimular los impulsos del corazón, manteniendo la vida.

El marcapasos es del tamaño de una moneda. Es capaz de detectar anomalías en la señal


eléctrica del corazón y enviar las señales eléctricas necesarias para que éste funcione. En
este sentido, el marcapasos es una innovación tecnológica sorprendente por ser el primer
paso a la introducción de aparatos electrónicos dentro del cuerpo humano para aumentar el
ciclo de vida.

Refrigerador

El refrigerador puede que no parezca nada sorprendente pero es una innovación tecnológica
que revolucionó la forma en que nos alimentamos. Gracias al refrigerador, patentado por
primera vez en 1834, el aumento de la población en las ciudades se vuelve posible gracias a
las cadenas de distribución de alimentos que utilizan la refrigeración.

El refrigerador eléctrico es una innovación tecnológica tan sorprendente como la tecnología


del arado para la agricultura en 3.900 a.C. Además de modificar la forma de alimentación
mediante la tecnología de conservación de los alimentos, esta tecnología serviría más
adelante para los sistemas de refrigeración no solo de alimentos pero también para los
sistemas de enfriamiento de computadores y de calefacción central en las casas.
8. El código QR

El código QR, por sus siglas en inglés para quick response o ―respuesta rápida" en español,
es una innovación tecnológica que sorprende por la cantidad de información que puede ser
extraída de forma simple y rápida. De esta manera, el código QR ha permitido innovar
hasta en la forma que hoy en día compramos y vendemos, sin el uso del dinero físico.

Inventada en 1999 por el japonés Masahiro Hara, logra que la información más compleja
pueda ser extraída escaneando el código de forma horizontal o vertical. Su antecesor, el
código de barras inventado en 1973, requirió del avance científico y tecnológico pasando
desde el rayo láser hasta la tecnología informática.

9. Pararrayos
Si toda la carga eléctrica de los relámpagos se extendiese por todas las ciudades en los días
de tormenta, no sería posible mantener la cantidad de dispositivos electrónicos que hoy
tenemos en nuestras casas.

La importancia del pararrayos, inventado en 1752 por Benjamín Franklin (1706-


1790), es sorprendente por cómo una estructura simple de metal logra conducir la
descarga eléctrica de un relámpago a un lugar seguro. De esta manera evita desastres
y mantiene el estilo de vida que disfrutamos hoy.

10 ejemplos de innovaciones que cambiaron el mundo


Las innovaciones son herramientas creadas por el ingenio humano para mejorar
nuestra calidad de vida como especie.
Innovación es la introducción de algo nuevo que satisface alguna necesidad y está
estrechamente conectada a la ciencia y a la tecnología, siendo la ciencia el conocimiento y
la tecnología su práctica.

Es difícil definir una lista de innovaciones, ya que los inventos descubiertos en la


Antigüedad, lejos de ser anticuados, son la base de muchos de los avances científicos y
tecnológicos que disfrutamos en el siglo XXI.

En esta ocasión, mostraremos 10 ejemplos de innovaciones que cambiaron al mundo.

1. Herramientas de corte
Los vestigios de la primera lanza datan de los 400.000 a. de C. Este invento introduce la
caza como una actividad habitual para la búsqueda de comida y, como consecuencia, obliga
a las comunidades a organizarse.

Además, la lanza como herramienta cortopunzante fue la primera innovación tecnológica


que permitiría a los humanos comenzar a cortar y manipular materiales más resistentes para
beneficio propio.

2. Arte pictográfico

Hace 17.000 años, algunos humanos de Altamira, España, dejaron sus huellas en piedras
usando pigmentos de la región, plasmando lo que llamamos hoy pintura rupestre, nuestra
primera expresión de arte.
Esta forma básica de expresar lo que vemos, ha evolucionado en el tiempo hasta llegar a las
complejas composiciones artísticas digitales que vemos hoy.

Las imágenes se convirtieron en una forma de expresión esencial en el ser humano. Gracias
a nuestra fascinación por la representación gráfica, la ciencia y la tecnología avanzaron
hacia la creación de la fotografía por Joseph Niépce (1765-1833) junto con Louis Daguerre
(1787-1851) en 1839 y el cine por los hermanos Lumière en 1859.

Junto con el surgimiento de otras innovaciones, hoy en día usamos tecnologías para la
creación de imágenes en formato digital, desde los programas para la edición de imágenes
como el Photoshop, hasta la tecnología de realidad virtual que recrea un mundo en tres
dimensiones.

3. Vivienda

En el 6000 a. de C, los humanos del Medio Oriente empezaron a construir casas,


transitando hacia una vida más sedentaria. Esta innovación constituye una de las bases para
el camino hacia las nociones de sociedad, Estado y país.
4. Agricultura

En Mesopotamia se registra el comienzo del arado en el 3.500 a. de C.. El arado es una


técnica simple que permitió hacer crecer y cuidar forma eficiente y homogénea sus
alimentos. Esta innovación ayudó a la especie humana plantar y organizar su comida a gran
escala.

5. Escritura
La escritura es una de las innovaciones que ha cultivado y elevado nuestro conocimiento,
ya que registra y transmite información amortiguando la barrera oral de la inmediatez. Los
primeros registros fueron encontrados en Mesopotamia alrededor del 3.500 a. de C.

6. Lentes
.

El primer lente de aumento descubierto tiene más de 3.000 años y fue bautizado como lente
de Nimrud. Fue usado por los asirios para observar el cielo. Pasando por los avances
tecnológicos creados por los egipcios, los chinos y los griegos, las primeras gafas se
comercializan alrededor del año 1.280.

A partir de esta innovación, surge en 1595 la invención del primer microscopio por
Zacharias Jansen (1580-1638). Esta innovación científica y tecnológica abriría las puertas
hacia la observación del mundo de los microorganismos, constituyendo la base de los
avances en la medicina.

A su vez, en 1609, Galileo Galilei comienza a experimentar con lentes, construyendo los
primeros telescopios que sirvieron para los avances en el conocimiento de nuestro sistema
solar y del universo.
7. Máquina a vapor

En 1768, James Watt (1736-1819), con la ayuda financiera de Matthew Boulton (1728-
1809), crea el primer motor que evitaba la pérdida constante de energía en las máquinas a
vapor. De esta forma, se crea el concepto ―caballos de fuerza‖ y se bautiza la potencia de la
unidad eléctrica como watts (vatio en español).

Esta innovación revolucionó el mundo de los medios de transporte, introduciendo la


creación de la locomotora por Richard Trevithick (1771-1833) en 1808, el automóvil por
Karl Benz (1844-1929) en 1886, el avión por Clément Ader (1841-1925) en 1890, y el
primer viaje espacial producto de lo que se conoce como la carrera espacial entre Estados
Unidos y la Unión Soviética durante la Guerra Fría.
8. Calculadora

La calculadora permite hacer cálculos complejos de manera mecánica y sin errores


humanos. La primera calculadora fue creada por Blaise Pascal (1623-1662) en 1642. Esto
daría comienzo a los avances tecnológicos en el ámbito de la computación y la posterior
creación de la World Wide Web o la web.

9. Pilas o baterías
Alessandro Volta (1745-1827) inventa la primera pila en el año 1800 al descubrir que el
contacto de dos metales con un conductor líquido producía energía eléctrica. De esta
manera, era posible producir energía.

Posteriormente, Gaston Planté (1834-1889) crea en 1860 la primera batería automotriz que
permitía recargar la celda una vez que esta se agotaba.

10. Telégrafo

El telégrafo fue perfeccionado para uso cotidiano por Samuel Morse (1791-1872) en 1830.
Esta innovación tecnológica y científica es considerada el inicio de la revolución de
los medios de comunicación.

En este sentido, nace el teléfono en 1875 con Graham Bell (1847-1922), y la radio, cuyo
invento fue atribuido a Guglielmo Marconi (1874-1937), siendo la primera prueba exitosa
alrededor del año 1897.

Como consecuencia de las innovaciones tecnológicas del momento, nace la televisión, cuyo
primer modelo mecánico fue creado por John Logie Baird (1888-1946) en 1924, pero que
solo fue conocida como televisión en 1926. Y no podemos dejar de mencionar al medio de
comunicación más común de hoy, la computadora creada por Konrad Zuse (1910-1995) en
1941.
Significado de Tecnología
Qué es Tecnología:
Se conoce como tecnología a un producto o solución conformado por un conjunto de
instrumentos, métodos y técnicas diseñados para resolver un problema.
Generalmente, se asocia la tecnología con el saber científico y la ingeniería; sin embargo,
tecnología es toda noción que pueda facilitar la vida en sociedad, o que permita satisfacer
demandas o necesidades individuales o colectivas, ajustadas a los requerimientos de una
época específica.

En cuanto a su origen etimológico, la palabra tecnología significa "el estudio de la técnica".


Proviene del griego τεχνολογία (tejnología), que se compone de τέχνη (téjne), que significa
"técnica, arte, oficio", y λόγος (lógos), "estudio, tratado".

Por otro lado, la tecnología también se refiere a la disciplina científica enfocada en el


estudio, la investigación, el desarrollo y la innovación de las técnicas y procedimientos,
aparatos y herramientas que son empleados para la transformación de materias primas en
objetos o bienes de utilidad práctica.

En este punto, es importante resaltar que la técnica es el conjunto de conocimientos


técnicos, habilidades, y reglas que se utilizan para obtener un resultado. Por su parte, la
tecnología es el medio, es decir, es el vínculo entre el cómo, que lo solventa la técnica, y el
por qué.

Se pueden emplear como sinónimos de la palabra tecnología los siguientes términos:


ciencias aplicadas, conocimiento, técnicas, entre otras.

Actualmente, se reconoce la clasificación de la tecnología en dos categorías: tecnologías


duras y tecnologías blandas.
Tecnología dura

Es todo producto, solución o componente tangible cuya creación proviene de la


transformación de materiales. Las piezas de hardware y la maquinaria industrial son un
claro ejemplo de tecnología dura.

Para que una tecnología pueda ser considerada dura, debe cumplir con estas características:

 Debe ser innovadora: si el producto creado ya no satisface necesidades actuales, no puede


ser considerado tecnología dura.
 Debe ser novedosa: tiene que hacer un aporte con respecto a lo que ya ha sido creado.
 Puede volverse obsoleta con el paso del tiempo.
 Debe ser rápida: esto aplica especialmente a los desarrollos en el ámbito de la informática.
Requiere mantenimiento: de otra forma, el producto no podrá satisfacer las necesidades
para las que fue creado.

Tecnología blanda
Es todo el conocimiento o metodología que ha sido creado para mejorar las dinámicas
sociales. Se le llama así porque se genera a partir de las llamadas ciencias blandas, como la
psicología, la economía, las letras, la estadística, las ciencias sociales, etc.

Como su función es generar conocimiento para dinamizar procesos, tienen múltiples


aplicaciones en el mundo empresarial y de gestión de recursos.
La tecnología blanda es esencial para que pueda generarse otro tipo de tecnología. El
software, por ejemplo, es considerado tecnología blanda y es esencial en el desarrollo del
hardware, que es tecnología dura.

Avances de la tecnología
La tecnología ha sido clave en el progreso técnico de la humanidad, en este sentido se ha
podido evidenciar avances tecnológicos puntuales e importantes en diferentes épocas como:

Tecnologías primitivas o clásicas: desembocaron en el descubrimiento del fuego, la


invención de la rueda o la escritura.
Tecnologías medievales: incluyen inventos tan importantes como la imprenta, el desarrollo
de las tecnologías de navegación, o el perfeccionamiento de la tecnología militar.
Tecnología en la manufactura: más recientemente, en el siglo XVIII, el desarrollo
tecnológico de los procesos de manufactura resultaron determinantes para la Revolución
Industrial.
Tecnología de la información y comunicación: en el siglo XX la tecnología evolucionó
en el área de la información y la comunicación, así como hacia las tecnologías avanzadas,
que incluyen el uso de la energía nuclear, la nanotecnología, la biotecnología, etc.
Actualmente, la tecnología considerada avanzada e inventada recientemente, lleva el
nombre de tecnología de punta. La misma se caracteriza por su precio elevado, y por
representar una innovación frente a las tecnologías que ya existen.
Los avances de la tecnología o innovaciones tecnológicas ofrecen mejores condiciones de
vida para la sociedad, mientras que, como factores negativos, surgen cuestiones sociales
preocupantes, como el desempleo debido a la sustitución del hombre por la máquina o la
contaminación del medio ambiente, que requieren un control continuo y estricto.

Tecnología en la educación

Un grupo de estudiantes estudia una obra de arte haciendo uso de realidad aumentada.
La tecnología educativa o aplicada a la educación comprende el conjunto de conocimientos
científicos y pedagógicos, asociados a métodos, técnicas, medios y herramientas, que es
aplicado con fines instructivos en el proceso de enseñanza-aprendizaje.

De este modo, la tecnología educativa proporciona al docente un variado abanico de


instrumentos de orden didáctico, ya sea a nivel teórico o material, para favorecer y hacer
más eficiente la dinámica de la enseñanza.

Por ello, se hace un importante énfasis en el apoyo que presta un recurso material como la
tecnología audiovisual en el proceso educativo, así como la tecnología digital.

Por ejemplo, se han hecho laboratorios de idiomas, proyectores y filmes, también se ha


incluido el uso computadoras y telefonía móvil, que son recursos aprovechados en el
proceso de enseñanza para optimizar sus resultados.

Actualmente, en algunas escuelas se está comenzando a implementar la realidad aumentada


con fines pedagógicos.

Tecnologías de la información y la comunicación


Las tecnologías de la información y la comunicación, también denominadas TIC, son un
concepto que hace referencia a una amplia variedad de recursos tecnológicos, desarrollados
a partir de la informática, que son empleados en las telecomunicaciones.

Algunas de las TIC de uso más común hoy en día son las redes de telefonía móvil, los
dispositivos móviles (teléfonos, laptops), servicios de correo y juegos en línea.

La posibilidad de interactuar a través de redes o en Internet de equipos como la


computadora, el teléfono móvil o cualquier otro dispositivo electrónico con capacidad de
almacenar, procesar y transmitir información, ha causado una profunda revolución en la
manera en que las personas accedemos, generamos y difundimos información.

Las TIC son el conjunto de tecnologías desarrolladas en la actualidad para una


información y comunicación más eficiente, las cuales han modificado tanto la forma de
acceder al conocimiento como las relaciones humanas.
TIC es la abreviatura de Tecnologías de la Información y la Comunicación.

Las TIC han transformado los parámetros de obtención de información por medio de las
tecnologías de la comunicación (diario, radio y televisión), a través del desarrollo de
Internet y de los nuevos dispositivos tecnológicos como la computadora, la tableta y
el smartphone, así como las plataformas y softwares disponibles.

Las TIC se reconocen como productos innovadores donde la ciencia y la ingeniería


en conjunto para desarrollar aparatos y sistemas que resuelvan los problemas del día a día.
Ellas sintetizan elementos de las llamadas tecnologías de la comunicación o TC (radio,
prensa y TV) con las tecnologías de la información.
La información se refiere en este contexto a la transferencia de datos de un modo
innovador, los cuales abarcan textos, imágenes y audio.
La comunicación se refiere a las herramientas que permiten que el mensaje enviado por el
emisor sea correctamente descifrado por el receptor. Por ejemplo, las plataformas de
información al usuario.
Existen dudas sobre la escritura correcta de las siglas, ya que refieren a un sustantivo plural.
Las personas se debaten entre la grafía TIC, TICs o TICS. Para indicar el plural, basta
añadir el artículo femenino "las". Por ejemplo: "Las TIC han revolucionado el campo de la
educación". Por lo tanto, lo correcto es escribir TIC, ya que la "s" minúscula suele ser
percibida como un anglicismo (TIC's) y la "S" mayúscula suele ser percibida como otra
sigla del término, lo que crea confusión.

Características de las TIC


 Penetran todos los campos del conocimiento humano y la vida social: el hogar, la
educación, el entretenimiento y el trabajo.
 Transforman los procesos mentales de adquisición de conocimientos;
 Son inmateriales, pues la información se construye a partir de redes virtuales;
 Son instantáneas o inmediatas, ya que el acceso a la información y la comunicación se da
en tiempo real independientemente de la distancia física;
 La información que contiene debe ser digitalizada, sea que se trate de texto, imagen o
audio;
 Son flexibles, lo que implica que pueden reestructurarse en función de los cambios que
sean necesarios;
 Se rigen por el principio de interconexión, esto es, permite crear nuevas posibilidades de
comunicación a partir de la conexión de dos o más tecnologías;
 Son interactivas, lo que implica la participación del usuario en el proceso de procesamiento
de la información y la adaptación de los recursos disponibles a sus necesidades.

Tipos de TIC
Cuando se habla de TIC, se puede referir a diferentes criterios según el contexto de uso del
término. A saber:

1. Redes. Se refiere tanto a las redes de radio y televisión, como a las redes de telefonía fija y
móvil, así como el ancho de banda.
2. Terminales y equipos. Abarca todo tipo de aparatos a través de los cuales operan las redes
de información y comunicación. Por ejemplo: ordenadores, tabletas, teléfonos celulares,
dispositivos de audio y vídeo, televisores, consolas de juego, etc.
3. Servicios. Se refiere al amplio espectro de servicios que se ofrecen por medio de los
recursos anteriores. Por ejemplo: servicios de correo electrónico, almacenamiento en la
nube, educación a distancia, banca electrónica, juegos en línea, servicios de
entretenimiento, comunidades virtuales y blogs.
Las TIC en el entorno laboral
Las TIC son parte esencial del entorno laboral de la actualidad. Ellas facilitan el
almacenamiento de bases de datos complejas, bien en servidores locales o servicios en la
nube.

Asimismo, las TIC son fundamentales para el desarrollo del comercio en línea, la banca
electrónica, los trabajos de contabilidad, la búsqueda de información, el control del
inventario, la producción de material informativo como texto, audio y vídeo, y,
fundamentalmente, la comunicación inmediata y eficaz.

Todo esto puede impactar positivamente en la productividad laboral y la competitividad


empresarial, al tiempo que transforma la manera de hacer negocios.

Sin embargo, las TIC también pueden ser fuentes de distracción, pues su uso cada vez más
frecuente, disperso y adictivo hace que los trabajadores se dispersen de sus tareas,
aumentando el índice de olvidos y retrasos involuntarios.

Las TIC en la educación


En los últimos años las TIC han jugado un papel clave en el desarrollo de nuevas políticas y
proyectos educativos, ya que han incidido en la forma de acceder al conocimiento. Ellas
han supuesto una oportunidad para facilitar el acceso a la educación, bien sea presencial o a
distancia, pero al mismo tiempo supone un conjunto de desafíos.

En este sentido, se han desarrollado servicios y plataformas de protocolo de Internet


destinados a la educación, los cuales han permitido repensar los modelos de enseñanza y
aprendizaje. Entre ellos podemos nombrar las plataformas de e-learnig. Entre los
ejemplos de plataformas de código abierto están principalmente Moodle, Chamilo,
Claroline, ATutor o Sakai. Entre las comerciales se pueden mencionar: Blackboard,
Educativa, Saba, Almagesto y Neo LMS.
Estas plataformas utilizan recursos como pizarras interactivas, aulas virtuales en tiempo
real, salas de discusión, foros, cuestionarios, esquemas, recursos audiovisuales, bibliografía
digitalizada, documentos colaborativos en línea, portafolios, juegos didácticos, etc.

También las redes sociales como WhatsApp o Facebook, herramientas como los blogs y
servicios de nube, resultan herramientas educativas para desarrollar conocimiento sobre
principios interactivos y colaborativos.

Ventajas de las TIC


 Facilitan el acceso a información;
 Favorece la conexión en red de diferentes centros educativos, ampliando la noción de
comunidad;
 Promueve nuevas formas de pensamiento;
 Favorece el principio de construcción colaborativa del conocimiento;
 Permite la alfabetización digital de los usuarios;
 En el campo de la educación, ayudan a solventar la brecha generacional entre alumnos y
profesores;
 Es una herramienta para la gestión educativa y administrativa, pues permite acceder de
manera inmediata a bases de datos y estadísticas para conocer el comportamiento
académico de los estudiantes.
Desventajas de las TIC
En términos generales, las TIC componen un conjunto de desventajas. A saber:

 La información es abundante, pero no está organizada sino dispersa, lo cual puede resultar
abrumador;
 Las TIC pueden resultar una fuente de distracción que dispersa al sujeto de su objetivo;
 Los dispositivos e instrumentos como plataformas cambian constantemente, lo que supone
un continuo esfuerzo de actualización;
 Aumenta el riesgo de vulnerabilidad de los datos personales.
En el ámbito específico de la educación, a estas desventajas se añaden las siguientes:

 Aún existe gran desigualdad en el acceso a la tecnología debido a factores como la pobreza
o la falta de políticas públicas educativas.
 La efectividad de su uso depende de la integración en el currículo escolar;
 El uso de las TIC requiere de espacios adecuados y dotación de equipos;
 Sin una adecuada preparación o un plan de enseñanza bien estructurado por parte de
Estado, escuela y profesor, las TIC pueden crear dispersión en lugar de aprendizaje.
 El riesgo de exposición al ciberbullying aumenta considerablemente.

Biotecnología
La biotecnología es un campo de estudio de enfoque multidisciplinario que incluye las
áreas de biología, química, genética, virología, agronomía, ingeniería, medicina y
veterinaria. La biotecnología es aplicada en la agricultura, la industria alimentaria y
farmacéutica, las ciencias forestales y la medicina.

La biotecnología implica el uso de organismos vivos o de compuestos extraídos a partir de


estos para la obtención o modificación de un producto o bien de utilidad para el ser
humano.

Por ejemplo, fabricación del yogur, el queso o las bebidas alcohólicas, requieren de
procesos biotecnológicos como la creación de levaduras para obtener un producto apto para
el consumo humano.
Bibliografía:

[Link]

[Link]

[Link]
&aqs=chrome..69i57j0l7.16985j1j4&sourceid=chrome&ie=UTF-8

[Link]

[Link]
7.12782j0j4&sourceid=chrome&ie=UTF-8

[Link]

[Link]
[Link][Link]
herramientas/

[Link]
57j0l7.9988j0j9&sourceid=chrome&ie=UTF-8

[Link]

[Link]
%C3%A1tica&aqs=chrome.0.69i59j0l4j69i60l3.19275j0j9&sourceid=chrome&ie=UTF-8

[Link]

[Link]
[Link][Link]
informacion&aqs=chrome..69i57j0l7.22244j0j4&sourceid=chrome&ie=UTF-8

[Link]

[Link]
ome.1.69i57j0l4j69i60l3.19306j1j4&sourceid=chrome&ie=UTF-8

[Link]
7373&ei=oRzHXrifFrCIggf1kL6QDw&q=7+caracteristicas+esenciales+de+la+innovacion&oq=7+cara
cteristicas+de+inno&gs_lcp=CgZwc3ktYWIQARgBMgYIABAWEB4yBggAEBYQHjoKCCMQsAMQJxCLA
zoJCCMQJxBGEPkBOgIIADoHCAAQFBCHAjoKCAAQFBCHAhCLAzoFCAAQiwM6BAgAEAo6BwgAEAo
QiwM6BAgAEEM6BwgAEEMQiwM6BAgjECc6BwgjEOoCECc6CggjEOoCECcQiwM6CAghEBYQHRAeO
gsIIRAWEB0QHhCLA1DmsgRY8q4GYNbYBmgBcAB4AIABrQGIAdUukgEENi40NJgBAKABAaoBB2d3cy
13aXqwAQa4AQI&sclient=psy-ab

[Link]
caracteristicas-principales

[Link]

[Link]
s=chrome..69i57j0l5j69i61l2.6758j0j4&sourceid=chrome&ie=UTF-8

[Link]
[Link]

También podría gustarte