Computación
Computación
Informática o Computación
Computación en la nube
Computación en la nube, servicios en la nube o cloud computing, hace referencia a
un concepto de servicios informáticos que ofrece, de manera paga o gratuita, a usuarios
ubicados en cualquier parte del mundo y con conexión a internet, programas o aplicaciones
de uso personal o empresarial que se encuentran alojados en internet (también denominado
"nube"). Hoy en día, este concepto es muy común, y lo encontramos en los servicios de
correo electrónico, redes sociales o un software como Microsoft Office 365, que no
requieren ser instalados en una computadora, sino que pueden usarse directamente en la
nube.
Computación ubicua
La computación ubicua es un concepto de tecnología futurista, desarrollado inicialmente
por Mark Weiser, que pretende la integración de los sistemas informáticos en todas las
facetas de la vida humana de una manera tan natural, bajo mecanismos de interacción tan
intuitivos, que pueda decirse que forman parte del entorno de las personas de una forma
prácticamente invisible, por ello es también conocida como inteligencia ambiental. Como
la palabra lo indica, la computación ubicua está en todos los aspectos de la vida cotidiana.
Situaciones como ir de compras, preparar café, obtener una dirección o información del
tráfico, estarían todas integradas por dispositivos computacionales interconectados con el
objetivo de facilitar las tareas cotidianas a las personas, creando una revolución en nuestro
modo de vida.
Computación cuántica
La computación cuántica es un concepto que propone la aplicación de las teorías de la
física cuántica en la informática, con el objetivo de crear computadoras con la capacidad
de procesar mayores cantidades de información y con más rapidez que las computadoras
tradicionales. En lugar de usar bits, emplea qubits (o quantum bits), lo cual da lugar a
nuevas puertas lógicas y, como consecuencia, a nuevos algoritmos. Esta tecnología, surgida
en los años ochenta, aún se encuentra, sin embargo, en desarrollo.
Computación gráfica
La computación gráfica es el área de la informática dedicada a la generación, diseño y
presentación de imágenes visuales en una computadora, ya sean de naturaleza
bidimensional o tridimensional, ya se trate de animaciones o de captura, creación y edición
de videos, con aplicación no solo en todos los campos del saber humano, sino también en el
entretenimiento, el arte o las operaciones bélicas.
Computación distribuida
La computación distribuida es un concepto que se refiere al empleo de una amplia red de
computadoras interconectadas para la realización de tareas determinadas. En este
sentido, este sistema, también conocido como informática en malla, aprovecha los
recursos disponibles en un gran número de computadores personales y los pone a trabajar
de manera coordinada y conjunta para resolver problemas informáticos de gran magnitud,
como si se tratara de una supercomputadora.
EDVAC
(Electronic Discrete Variable Automatic Calculator)
EDVAC
El EDVAC estaba organizado en seis partes principalmente:
1. Unidad de lectura-grabadora, que era la encargada de la lectura, grabación y
borrado de las cintas magnéticas.
2. Unidad de control, que contenía los botones de operación, las lámparas
indicadoras, los interruptores de control y un osciloscopio para
el mantenimiento de la computadora.
3. Unidad de "reparto", que se encargaba de decodificar las instrucciones,
emitía señales de control hacia el resto de unidades y almacenaba la instrucción
que se debía ejecutar en cada momento.
4. Memoria de alta velocidad, que consistía en dos unidades iguales, cada una
contenía 64 líneas de 8 palabras cada una.
5. Computadora, la unidad que realizaba las operaciones básicas aritméticas. La
unidad aritmética estaba por duplicado, las operaciones se hacían en ambas
unidades y se comparaban los resultados, interrumpiéndose la ejecución si no
eran idénticos.
6. Reloj, que emitía pulsos de reloj a intervalos de 1 µsegundo.
ENIAC
(Electronica Numeral Integrator and Computer)
El ENIAC nació en
1943, aunque no se
terminó de construir hasta
1946, fue
un contrato entre el
ejército de [Link] y sus
desarrolladores John
Mauchly y John Presper
Eckert, llamado
"Proyecto PX" con una
subvención de $500000. En
1944 se unió al
proyecto John von
Neumann.
ENIAC
El ENIAC fue un ordenador electrónico digital con fines generales a gran escala.
Fue en su época la máquina más grande del mundo, compuesto de unas 17468 tubos
de vacío, esto producía un problema ya que la vida media de un tubo era de unas
3000 horas por lo que aproximadamente cada 10 minutos se estropeaba un tubo y no
era nada sencillo buscar un tubo entre 18000, consumiéndose gran cantidad de
tiempo en ello. Tenía dos innovaciones técnicas, la primera es que combina diversos
componentes técnicos (40000 componentes entre tubos, condensadores, resistencias,
interruptores, etc.) e ideas de diseño en un único sistema que era capaz de realizar
5000 sumas y 300 multiplicaciones por segundo. La segunda era la fiabilidad de la
máquina, para resolver el problema de los tubos de vacío se aplicaron unos estrictos
controles de calidad de los componentes utilizados. Salió a la luz pública el 14 de
febrero de 1946, apareciendo en la prensa con calificativos como
"cerebro electrónico", "Einstein mecánico" o "Frankenstein matemático", como por
ejemplo en el diario Newsweek.
ENIGMA
Enigma
Mark I
Mark I
Cuando fue puesta en pleno funcionamiento en 1944 se usó para el cálculo de
tablas de balística durante el final de la Segunda Guerra Mundial. Fue entonces
cuando Aiken contó con la colaboración con un personaje importante en
la historia de la informática: Grace Murray Hopper.
A pesar de que era una computadora más lenta en comparación con las
coexistentes con ella , como la ENIAC, se usó hasta 1959, año en el que se la
desmanteló, dejado partes en la universidad de Harvard y partes en el Instituto
SmithSonian en Washington ([Link]).
IBM 360
Comercializado a partir de 1964, el
IBM 360 fue el primero en usar la
palabra byte para referirse a 8 bits (con
cuatro bytes creaba una palabra de 32-
bits).
Esta arquitectura de computación fue la
que a partir de este modelo siguieron
todos los ordenadores de IBM.
IBM 360
IBM 360
La IBM 360 una de las primeras computadoras comerciales que
usó circuitos integrados, podía realizar tanto análisis numéricos
como administración procesamiento de archivos, siendo a partir de él considerada la
3º generación de ordenadores.
IBM PC
IBM PC
Si comparamos el 5150 con una de las últimas computadoras de IBM, la
NetVista A21:
Modelo
IBM PC 5150
IBM NetVista A21
Fecha de nacimiento
12 de agosto de 1981
24 de julio de 2001
CPU
Intel 8088 4.77MHz
Intel Celeron 1GHz
Memoria
16K expandible a 64K
128MB expandible a 512MB
Disco duro
No tenía
20 GB
Sistema Operativo
CP/M o IBM PC-DOS (Microsoft MS-DOS)
Microsoft Windows 98
Precio
5000 dólares (con 64K de memoria)
599 dólares (con monitor de 15 pulgadas)
Manchester Mark I
En 1951, "the baby" fue remplazada por una versión conocida como Ferranti Mark
I, que surgió de la colaboración del equipo de la universidad de Manchester y de los
hermanos Ferranti que tenían una fábrica, la Ferranti Mark I fue de las primeras
computadoras comerciales de la historia.
Algunas de sus características fueron: una memoria principal (RAM) de 256
palabras de 40 bit cada una (o sea tenía una memoria de 1280 bytes) basada en tubos
de vacío; una memoria que almacenaba 3750 palabras; realizaba una operación
estándar, como una suma, en 1.8 milisegundos, en cambio para realizar una
multiplicación era mucho más lento, añadiéndole al tiempo de una operación
estándar 0.6 milisegundos por cada bit que tuviera el multiplicador. La entrada era
por medio de un sencillo teclado para almacenar directamente
la información al computador; la salida para las comprobaciones era a través de un
visualizador de tubos de rayos catódicos.
Máquina en Diferencias
Fue concebida en 1821 por Charles
Babbage, con el propósito de evaluar
funciones polinómicas. Para el cálculo
de dichas funciones se basa en
el método de diferencias finitas, que
elimina tener que realizar
multiplicaciones y divisiones, solo usa
sumas siendo así mecanismos más
sencillos.
Máquina en diferencias
modelo 1
George Scheutz, un
impresor sueco, se
basó en los trabajos
realizados
por Charles
Babbage para
construir una
máquina de
diferencias similar a
la de él, pero por el
contrario que la de
Babbage, la de
Scheutz sí funcionó Máquina de diferencias
perfectamente.
En 1938 construyó una primera versión junto con su hijo Edward. En 1953
construyeron la versión definitiva, una máquina que podía procesar números de
quince dígitos, y calcular la cuarta diferencia. Esta máquina obtuvo la medalla
de oro en la Exposición Mundial de París en 1955. Después fue vendida al
Observatorio Dudley en Albany (Nueva York) en donde se utilizó para calcular la
órbita de Marte. En la actualidad se encuentra en el museo Smithsonian
(Washington).
Máquinas de Zuse
Konrad
Zuse construyó
numerosas computadoras
a lo largo de su vida, en
un principio más bien
como investigador,
aunque finalmente se
dedicó a ello plenamente.
A continuación
hablaremos de sus
primeras máquinas: la
Z1, la Z2, la Z3, y la Z4.
Z1
Z3
La Z3 estaba formada por partes tales como la unidad de control, la memoria, la
unidad aritmética, y los dispositivos de entrada y salida. Estaba compuesta por unos
2200 relés, 600 para la unidad numérica y 1600 para la unidad de almacenamiento.
Realizaba una suma en 0.7 segundos, y una multiplicación o una división en 3
segundos. Pesaba unos 1000 kilogramos y como sus hermanas fue destruida durante
un bombardeo en 1944.
Z3
La Z4 fue terminada en 1944, aunque en años posteriores fue retocada añadiéndole
una unidad de lectura de tarjetas perforadas. La Z4 fue utilizada por
numerosas instituciones hasta 1959, en la actualidad se encuentra en el museo alemán
de Munich.
Z4
La Z4 tenía una unidad para producir tarjetas perforadas con instrucciones para
la propia Z4, con lo que no era demasiado complicado programarla. Y así también
era posible realizar copias de los programas para poder hacer correcciones.
Animación de Z4
La Z4 admitía un gran conjunto de instrucciones capaz de resolver complicados
cálculos científicos, era capaz de ejecutar 1000 instrucciones por hora. Estaba
compuesta aproximadamente 2200 relés; realizaba unas 11 multiplicaciones por
segundo y tenía una memoria de 500 palabras de 32 bit. Pesaba unos 1000
kilogramos. La entrada de datos era o a través de un teclado decimal o a través de
tarjetas perforadas, y la salida era por una máquina de escribir.
UNIVAC
(Universal Automatic Computer)
Era una computadora que pesaba 16000 libras (7257 kg. aproximadamente),
estaba compuesta por 5000 tubos de vacío, y podía ejecutar unos 1000 cálculos por
segundo. Era una computadora que procesaba los dígitos en serie. Podía hacer sumas
de dos números de diez dígitos cada uno, unas 100000 por segundo.
Organigrama del UNIVAC
(pinchen en la imagen para verla ampliada)
Funcionaba con un reloj interno con una frecuencia de 2.25 MHz,
tenía memorias de mercurio. Estas memorias no permitían el acceso inmediato a los
datos, pero tenían más fiabilidad que los tubos de rayos catódicos, que son los que se
usaban normalmente.
UNIVAC
(pinche en la foto para verla en grande)
Las Generaciones de la Computación
1° Generación: se desarrolla entre 1940 y 1952. Es la época de los ordenadores que funcionaban
a válvulas de vacío y el uso era exclusivo para el ámbito científico/militar. Para poder programarlos
había que modificar directamente los valores de los circuitos de las máquinas.
2° Generación: va desde 1952 a 1964. Ésta surge cuando se sustituye la válvula por el transistor. En esta
generación aparecen los primeros ordenadores comerciales, los cuales ya tenían
una programación previa que serían los sistemas operativos. Éstos interpretaban instrucciones
en lenguaje de programación (Cobol, Fortran), de esta manera, el programador escribía sus programas en
esos lenguajes y el ordenador era capaz de traducirlo al lenguaje máquina.
3° Generación: se dio entre 1964 y 1971. Es la generación en la cual se comienzan a utilizar los circuitos
integrados; esto permitió por un lado abaratar costos y por el otro aumentar la capacidad de
procesamiento reduciendo el tamaño físico de las máquinas. Por otra parte, esta generación es
importante porque se da un notable mejoramiento en los lenguajes de programación y, además, surgen
los programas utilitarios.
4° Generación: se desarrolla entre los años 1971 y 1981. Esta fase de evolución se caracterizó por la
integración de los componentes electrónicos, y esto dio lugar a la aparición del microprocesador, que es
la integración de todos los elementos básicos del ordenador en un sólo circuito integrado.
5° Generación: va desde 1981 hasta nuestros días (aunque ciertos expertos consideran finalizada esta
generación con la aparición de los procesadores Pentium, consideraremos que aún no ha finalizado) Esta
quinta generación se caracteriza por el surgimiento de la PC, tal como se la conoce actualmente.
PROCESAMIENTO DE DATOS
El procesamiento de datos es, en general, "la acumulación y manipulación de elementos
de datos para producir información significativa." El procesamiento de datos trata de un
subconjunto del 'procesamiento de la información', el cambio (procesamiento) de la
información de cualquier manera detectable por un observador.
El procesamiento empieza con datos en su forma en bruto y los convierte a un formato más
legible (gráficos, documentos, etc.), dándoles la forma y el contexto necesarios para que los
ordenadores los interpreten y los empleados los utilicen en toda una organización.
Etapas del procesamiento de datos
1. Recogida de datos
La recogida de datos es el primer paso del procesamiento. Los datos se extraen de las
fuentes disponibles, entre las cuales se cuentan los data lakes y los almacenes de datos. Es
importante que las fuentes de datos disponibles sean fiables y estén bien creadas para que
los datos recabados (que posteriormente se emplearán como información) sean de la más
alta calidad posible.
2. Preparación de datos
Una vez recabados los datos, se pasa a la fase de la preparación de datos. La preparación de
datos, a menudo llamada "preprocesamiento", es la etapa en la que los datos en bruto se
limpian y organizan para la siguiente fase del procesamiento. Durante la preparación, los
datos en bruto se verifican diligentemente para detectar errores. El objetivo de este paso es
eliminar los datos erróneos (datos redundantes, incompletos o incorrectos) y empezar a
crear datos de gran calidad para obtener la mejor business intelligence.
3. Introducción de datos
A continuación los datos limpios se introducen en su destino (puede ser un CRM,
como Salesforce, o un almacén de datos, como Redshift y se traducen a un lenguaje
comprensible. La introducción de datos es el primer paso en el que los datos en bruto
empiezan a cobrar forma como información utilizable.
4. Procesamiento
Durante esta fase los datos ingresados en el ordenador en la fase anterior se procesan
realmente para su interpretación. El procesamiento se efectúa por medio de algoritmos
de machine learning, si bien el proceso en sí puede variar ligeramente según cuál sea la
fuente de los datos que se esté procesando (data lakes, redes sociales, dispositivos
conectados, etc.) y su uso previsto (estudiar patrones publicitarios, diagnósticos médicos a
partir de dispositivos conectados, determinar necesidades de clientes, etc.).
5. Salida/interpretación de datos
La etapa de salida/interpretación es la fase en la que los datos resultan finalmente
utilizables para los que no son científicos de datos. Están traducidos, son legibles y muchas
veces se presentan en forma de gráficos, vídeos, imágenes, texto simple, etc. A partir de ese
momento los miembros de una empresa o institución pueden empezar a autogestionarse los
datos para sus propios proyectos de analíticas de datos.
6. Almacenamiento de datos
La última fase del procesamiento de datos es el almacenamiento. Cuando todos los datos
están procesados, se almacenan para su futuro uso. Si bien hay alguna información que ya
puede emplearse de inmediato, gran parte tendrá utilidad a posteriori. Además, almacenar
correctamente nuestros datos es una necesidad para dar cumplimiento a la legislación de
protección de datos, como el RGPD. Cuando los datos están bien almacenados, a los
miembros de la organización les resulta fácil y rápido acceder a ellos siempre que lo
necesiten.
Con la migración de los big data a la cloud, las empresas obtienen enormes beneficios.
Las tecnologías cloud para big data permiten a las empresas combinar todas sus
plataformas en un único sistema fácil de adaptar. A medida que el software cambia y se
actualiza (como suele ser el caso en el mundo de los big data), la tecnología cloud integra
sin fisuras lo nuevo con lo antiguo.
Las ventajas del procesamiento de datos en la cloud no son en absoluto exclusivas de las
grandes corporaciones. En realidad, las pequeñas empresas pueden obtener beneficios aún
mayores. Las plataformas cloud pueden ser económicas y ofrecen la flexibilidad para crecer
y ampliar sus capacidades a medida que la empresa crezca. Aporta a las empresas la
capacidad de escalar sin pagar un precio elevado.
¿Qué sucede a partir de ahora? Es hora de poner a trabajar sus datos. Cuando sus datos
estén procesados, podrán ser analizados eficazmente para obtener business intelligence.
Con la ayuda de analíticas de datos podrán tomar decisiones comerciales más rápidas e
inteligentes.
Procesamiento en tiempo real
El procesamiento en tiempo real trabaja con flujos de datos que se capturan en tiempo real
y se procesan con una latencia mínima para generar informes en tiempo real (o casi en
tiempo real), o respuestas automatizadas. Por ejemplo, una solución de supervisión del
tráfico en tiempo real podría usar datos de sensores para detectar volúmenes de tráfico
elevados. Estos datos se pueden utilizar para actualizar dinámicamente un mapa que
muestre los atascos o para poner en marcha automáticamente carriles para vehículos con
más de un pasajero u otros sistemas de administración de tráfico.
El método de procesamiento por lotes se utilizó por primera vez en el siglo XIX por parte
de Herman Hollerith, un inventor estadounidense que creó la primera máquina tabuladora. Este
aparato se convirtió en el precursor del ordenador moderno, capaz de contar y ordenar datos
organizados en forma de tarjetas perforadas. Las tarjetas y la información que contenían luego se
compilaba y se procesaba conjuntamente por lotes. Esa innovación permitió tratar grandes
cantidades de datos de forma más rápida y precisa que por los métodos de introducción manual.
Fundamentos del procesamiento por lotes
El procesamiento por lotes desempeña un papel crítico a la hora de ayudar a empresas y
organizaciones a administrar grandes cantidades de datos con eficiencia. Es especialmente apto para
el manejo de tareas frecuentes y repetitivas, como los procesos de contabilidad. En todos los
sectores y para todas las tareas, los fundamentos básicos del procesamiento por lotes siguen siendo
los mismos. Los parámetros esenciales son:
Muchas empresas recurren al procesamiento por lotes para automatizar sus procesos de facturación.
Piense en una operación de su tarjeta de crédito que no apareció en su extracto de la cuenta bancaria
hasta unos cuantos días después de que se gastara ese dinero. Podría ser que esa operación hubiera
sido procesada dentro de un lote cierto tiempo después de haber realizado la compra.
Otro ejemplo sería una empresa mayorista que tan solo facture a sus clientes una vez al mes y pague
a sus empleados cada dos semanas. Tanto el ciclo de facturación mensual como los ciclos de
nómina quincenales son ejemplos de procesamiento por lotes. \
Ventajas
El procesamiento por lotes se ha popularizado porque reporta toda una serie de ventajas para
la gestión de datos en empresas. Las organizaciones pueden sacar provecho de muchas de las
ventajas que trae consigo el procesamiento por lotes:
Eficiencia
El procesamiento por lotes permite a una empresa procesar tareas cuando la computación u otros
recursos estén disponibles. Las empresas pueden priorizar las tareas más urgentes y programar
procesamientos por lotes para las que corran menos prisa. Además, los sistemas por lotes pueden
ejecutarse sin conexión con el fin de minimizar la presión sobre los procesadores.
Cuando hablamos de comunicación sincrónica y asincrónica nos estamos refiriendo a dos formas de
intercambio de la información en función de la simultaneidad con la que se envía y ofrece el
mensaje.
En este sentido, según explica Jesús Valverde Berrocoso en Herramientas de comunicación sincrónica y
asincrónica, la comunicación sincrónica es aquella “en la que los usuarios, a través de una red
telemática, coinciden en el tiempo y se comunican entre sí mediante texto, audio y/o vídeo”. Por
ejemplo, en una vídeo conferencia, los interlocutores implicados conversan al mismo tiempo, siendo
necesario que, tanto emisor, como receptor se encuentren conectados al mismo tiempo.
Por el contrario, en la asincrónica, continúa el autor, “los participantes utilizan el sistema de
comunicación en tiempos diferentes‖. Sería el caso del correo electrónico, por ejemplo, pues el
receptor puede leer el mensaje en cualquier momento después de que el receptor lo envíe, sin que se
produzca esa simultaneidad en la comunicación.
Así, como señala Joel Shore, en el artículo Synchronous Vs. Asynchronous Communication: The
Differences, ―mientras que las comunicaciones asincrónicas no esperan una respuesta, la ejecución
síncrona requiere que las partes o los componentes funcionen simultáneamente en tiempo real‖.
De este modo, la simultaneidad de la conversación es la distinción clave entre la comunicación
sincrónica y asincrónica. Sin embargo, existen otras diferencias entre estos dos tipos de transmisión de
la información a través de internet:
Comunicación asincrónica
o Es más simple, ya que no requiere sincronización de ambos lados de la comunicación.
o Resulta más barata, porque necesita menos hardware para su funcionamiento.
o La configuración del software es más rápida que otras transmisiones, por lo que es
ideal para aplicaciones donde los mensajes se generan a intervalos irregulares.
Comunicación sincrónica:
o Sufre menos sobrecarga.
o Presenta un mayor rendimiento.
o La comunicación es más rápida, al producirse en tiempo real.
Comunicación asincrónica:
o Lleva aparejado un mayor riesgo de sobrecarga.
o La transmisión de información no es tan fluida como en la sincrónica.
o Resulta menos eficiente.
Comunicación sincrónica:
o Conlleva un proceso más complejo.
o Necesita de un mayor conocimiento informático.
o Supone un mayor costo, dado que requiere un software más sofisticado.
Audio conferencia: consiste en una llamada de voz, ya sea por teléfono o por algún otro
programa informático; permite hablar a dos personas en tiempo real desde diferentes sitios.
Vídeo conferencia: posibilita mantener conversaciones con audio y vídeo de forma simultánea
y es habitual para reuniones entre trabajadores o proveedores, que físicamente se encuentran en
zonas geográficas diferentes.
Chat: permite a varias personas comunicarse en tiempo real, a través de mensajes de texto. Es
empleado tanto para la comunicación interna de los trabajadores, como para la atención a los
clientes.
Mensajería instantánea: a través de ella, los interlocutores pueden intercambiar información –
principalmente texto, pero también audios, vídeos y documentos-en tiempo real. Whatsapp sería
el caso más popular, aunque en el ámbito empresarial también es frecuente el empleo de Slack.
Email: es el medio asincrónico más extendido y permite a un emisor enviar información a una
persona, que la verá cuando abra el mensaje concreto.
Listas de distribución: utilizando el mismo sistema de correo electrónico, las listas de
distribución permiten hacer que el mensaje llegue a más de un destinatario, previamente
determinados por categorías o filtros.
Foros de debate: consisten en sitios web donde los trabajadores pueden plantear preguntas,
esperando que otra persona las conteste, o responder cuestiones previamente realizadas por
otros compañeros.
Wikis: se trata de webs cuyo contenido puede ser editado por cualquier usuario.
Documentos compartidos: hace referencia a espacios web en la nube o la intranet, donde los
empleados pueden acceder a diferentes documentos online para su edición conjunta.
Ahora bien, la eficiencia de estas herramientas va a depender del mayor o menor acierto en las
políticas comunicativas que las compañías haya implantado en su seno.
En este ámbito tecnológico se puede hablar de multitud de programas que tienen como objetivo
el que podamos realizar una tarea concreta de una manera sencilla. Este sería el caso de Word,
que es un procesador de textos que nos ayuda a crear y diseñar multitud de documentos
textuales, o PowerPoint que nos sirve para desarrollar presentaciones visuales muy atractivas.
Definición de Computador
Ordenador o Computadora, dispositivo electrónico capaz de recibir un conjunto de instrucciones y
ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros
tipos de información.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o
computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para
el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la
fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos
de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en
tecnología aplicada.
2._ Tipos de Ordenadores o Computadoras
En la actualidad se utilizan dos tipos principales de ordenadores: analógicos y digitales. Sin embargo, el
término ordenador o computadora suele utilizarse para referirse exclusivamente al tipo digital. Los
ordenadores analógicos aprovechan la similitud matemática entre las interrelaciones físicas de
determinados problemas y emplean circuitos electrónicos o hidráulicos para simular el problema físico.
Los ordenadores digitales resuelven los problemas realizando cálculos y tratando cada número dígito por
dígito.
Las instalaciones que contienen elementos de ordenadores digitales y analógicos se denominan
ordenadores híbridos. Por lo general se utilizan para problemas en los que hay que calcular grandes
cantidades de ecuaciones complejas, conocidas como integrales de tiempo. En un ordenador digital
también pueden introducirse datos en forma analógica mediante un convertidor analógico digital, y
viceversa (convertidor digital a analógico).
2.1_ Ordenadores Analógicos
El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de
datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como
datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza
longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras
funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que
pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se
generan continuamente para su visualización o para su conversión en otra forma deseada.
2.2_ Ordenadores Digitales
Todo lo que hace un ordenador digital se basa en una operación: la capacidad de det erminar si un
conmutador, o ‗puerta‘, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados
en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de
números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que
lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en
megahercios, o millones de ciclos por segundo. Un ordenador con una velocidad de reloj de 100 MHz,
velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100
millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden
ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras
utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de
ciclos por segundo.
La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la
cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada
vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una
operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de
conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que
puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez,
puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro
operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1),
ON-OFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8
conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de
datos en cada ciclo. Un grupo de ocho bits se denomina byte y cada uno contiene 256 configuraciones
posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una
instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un carácter o un
símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso
el número decimal 210 (véase Sistemas numéricos), o bien estar indicando al ordenador que compare los
datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip
de memoria. El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de
datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de
configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de
procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits
simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que
avanza el desarrollo de los ordenadores digitales modernos.
3._ Miniordenador
Miniordenador o Minicomputadora, un ordenador o computadora de nivel medio diseñada para
realizar cálculos complejos y gestionar eficientemente una gran cantidad de entradas y salidas de
usuarios conectados a través de un terminal. Normalmente, los miniordenadores se conectan
mediante una red con otras minicomputadoras, y distribuyen los procesos entre todos los equipos
conectados. Las minicomputadoras se utilizan con frecuencia en aplicaciones transaccionales y como
interfaces entre sistemas de mainframe y redes de área extensa.
4._ Microordenador
Microordenador o Microcomputadora, dispositivo de computación de sobremesa o portátil, que
utiliza un microprocesador como su unidad central de procesamiento o CPU. Los microordenadores más
comunes son las computadoras u ordenadores personales, PC, computadoras domésticas, computadoras
para la pequeña empresa o micros. Las más pequeñas y compactas se denominan laptops o portátiles e
incluso palm tops por caber en la palma de la mano. Cuando los microordenadores aparecieron por
primera vez, se consideraban equipos para un solo usuario, y sólo eran capaces de procesar cuatro, ocho
o 16 bits de información a la vez. Con el paso del tiempo, la distinción entre microcomputadoras y
grandes computadoras corporativas o mainframe (así como los sistemas corporativos de menor tamaño
denominados minicomputadoras) ha perdido vigencia, ya que los nuevos modelos de microordenadores
han aumentado la velocidad y capacidad de procesamiento de datos de sus CPUs a niveles de 32 bits y
múltiples usuarios.
Los microordenadores están diseñados para uso doméstico, didáctico y funciones de oficina. En casa
pueden servir como herramienta para la gestión doméstica (cálculo de impuestos, almacenamiento de
recetas) y como equipo de diversión (juegos de computadora, catálogos de discos y libros). Los escolares
pueden utilizarlos para hacer sus deberes y, de hecho, muchas escuelas públicas utilizan ya estos
dispositivos para cursos de aprendizaje programado independiente y cultura informática. Las
pequeñas empresas pueden adquirir microcomputadoras para el procesamiento de textos, para
la contabilidad y el almacenamiento y gestión de correo electrónico.
El desarrollo de las microcomputadoras fue posible gracias a dos innovaciones tecnológicas en el campo
de la microelectrónica: el circuito integrado, también llamado IC (acrónimo de Integrated Circuit), que
fue desarrollado en 1959, y el microprocesador que apareció por primera vez en 1971. El IC permite la
miniaturización de los circuitos de memoria de la computadora y el microprocesador redujo el tamaño de
la CPU al de una sola pastilla o chip de silicio.
El hecho de que la CPU calcule, realice operaciones lógicas, contenga instrucciones de operación y
administre los flujos de información favoreció el desarrollo de sistemas independientes que funcionaran
como microordenadores completos. El primer sistema de sobremesa de tales características, diseñado
específicamente para uso personal, fue presentado en 1974 por Micro Instrumentation Telemetry
Systems (MITS). El editor de una revista de divulgación tecnológica convenció a los propietarios de este
sistema para crear y vender por correo un equipo de computadora a través de su revista.
El precio de venta de esta computadora, que recibió el nombre de Altair, era relativamente asequible.
La demanda de este equipo fue inmediata, inesperada y totalmente abrumadora. Cientos de pequeñas
compañías respondieron a esta demanda produciendo computadoras para el nuevo mercado. La primera
gran empresa de electrónica que fabricó y vendió computadoras personales, Tandy Corporation
(Radio Shack), introdujo su modelo en 1977. Rápidamente dominó el sector, gracias a la combinación de
dos atractivas características: un teclado y un terminal de pantalla de rayos catódicos. También se hizo
popular porque se podía programar y el usuario podía guardar la información en una cinta de casete.
Poco tiempo después de la presentación del nuevo modelo de Tandy, dos ingenieros programadores,
Stephen Wozniak y Steven Jobs, crearon una nueva compañía de fabricación de computadoras llamada
Apple Computers. Algunas de las nuevas características que introdujeron en sus microcomputadoras
fueron la memoria expandida, programas en disco y almacenamiento de datos de bajo precio y
los gráficos en color. Apple Computers se convirtió en la compañía de más rápido crecimiento en
la historia empresarial de los Estados Unidos. Esto animó a un gran número de fabricantes de
microordenadores para entrar en este campo. Antes de finalizar la década de 1980, el mercado de los
ordenadores personales se encontraba ya claramente definido.
En 1981 IBM presentó su propio modelo de microordenador, llamado IBM PC. Aunque no incorporaba
la tecnología de computación más avanzada, el PC se convirtió en un hito de este sector en ebullición.
Demostró que la industria de los microordenadores era algo más que una moda pasajera y que, de hecho,
los microordenadores eran una herramienta necesaria en el mundo empresarial. La incorporación de un
microprocesador de 16 bits en el PC inició el desarrollo de micros más veloces y potentes. Así mismo, el
uso de un sistema operativo al que podían acceder todos los demás fabricantes de computadoras abrió el
camino para la estandarización de la industria.
A mediados de la década de 1980 se produjeron una serie de desarrollos especialmente importantes para
el auge de los microordenadores. Uno de ellos fue la introducción de un potente ordenador de 32 bits
capaz de ejecutar sistemas operativos multiusuario avanzados a gran velocidad. Este avance redujo las
diferencias entre micro y miniordenadores, dotando a cualquier equipo de sobremesa de una oficina con
la suficiente potencia informática como para satisfacer las demandas de cualquier pequeña empresa y de
la mayoría de las empresas medianas.
Otra innovación fue la introducción de métodos más sencillos y 'amigables' para el control de las
operaciones de las microcomputadoras. Al sustituir el sistema operativo convencional por una interfaz
gráfica de usuario, computadores como el Apple Macintosh permiten al usuario seleccionar iconos —
símbolos gráficos que representan funciones de la computadora— en la pantalla, en lugar de requerir la
introducción de los comandos escritos correspondientes. Hoy ya existen nuevos sistemas controlados por
la voz, pudiendo los usuarios operar sus microordenadores utilizando las palabras y la sintaxis
del lenguaje hablado.
5._Superordenador
Superordenador o Supercomputadora, ordenador o computadora de gran capacidad, tremendamente
rápida y de coste elevado, utilizada en cálculos complejos o tareas muy especiales. Normalmente se trata
de una máquina capaz de distribuir el procesamiento de instrucciones y que puede utilizar instrucciones
vectoriales. Las supercomputadoras se usan, por ejemplo, para hacer el enorme número de cálculos que
se necesitan para dibujar y animar una nave espacial, o para crear un dinosaurio en movimiento para una
película. También se utilizan para hacer las previsiones meteorológicas, para construir modelos
científicos a gran escala y en los cálculos de las prospecciones petrolíferas.
6._ Computadoras Portátiles
En 1993, con su filial FirstPerson Inc., Sun anunció su entrada en el mercado de la electrónica
de consumo con computadoras portátiles que se pueden conectar a sistemas de redes. Algunas
computadoras portátiles usan RAM con alimentación por baterías como disco virtual; es más caro pero
consume menos energía que un disco duro. Los relojes digitales, las computadoras portátiles y los juegos
electrónicos son sistemas basados en microprocesadores. Las pantallas LCD son más planas y más
pequeñas que los monitores de rayos catódicos, y se emplean frecuentemente en ordenadores portátiles.
Cuando hablamos de hardware (del inglés hard, rígido, y ware, producto) nos referimos al
conjunto mecánico, eléctrico o electrónico de las partes reales que integran el cuerpo
de un computador, es decir, las placas, tarjetas, circuitos integrados,
mecanismos, dispositivos eléctricos, encargados del procesamiento, soporte y
conexión de la máquina.
En un sistema informático u ordenador se introducen datos, ahora bien para que este puede
entenderlos los datos deben ser traducidos al lenguaje eléctrico, ya que es el único que el
ordenador conoce. No debemos olvidar que el ordenador es una máquina eléctrica, actúa de
una forma o de otra en función de si hay o no hay corriente en determinados sitios.
El microprocesador del ordenador está formado por millones de interruptores que son
accionados eléctricamente cuando les llega corriente eléctrica y están sin accionar cuando
no les llega corriente. Estos interruptores están todos integrados en un microchip.
Los dos estados posibles de estos interruptores integrados en el micro para nosotros serán
―0‖ y ―1‖, que corresponden a los estados de un interruptor ―abierto‖ y ―cerrado‖.
Cada uno de estos dígitos o estados se denomina bit: unida más pequeña de representación
de información en un ordenador, que se corresponde con un dígito binario, un 0 o un 1.
Es decir cada carácter (letra o símbolo) o número está formado por una combinación de 8
ceros y unos = 1 byte. Lógicamente cada uno con una combinación diferente.
Por ejemplo, la letra A en este código (ASCIL) se expresa con 8 bits, que son: 10100001
1Kilobyte=1024Bytes
1Megabyte=1024Kilobytes
1Gigabyte=1024Megabytes
Almacenamiento y Velocidad
Un byte ya sabemos que es un carácter o un número. 1Kb (kilobyte) son 1024 caracteres o
números. Ojo no son 1.000, son 1.024.
Un documento que ocupa 1Kb estará formado por 1024 números, letras, símbolos o
espacios en blanco
El byte es una unidad muy pequeña, por eso se utilizan sus múltiplos como el Kb, Mb
(megabyte), Gb (gigabyte), Tb ( terabyte ), etc.
La unidad de velocidad de transmisión de datos (los bytes son los datos) de un sitio a
otro se expresará en Bytes/segundo (B/s), KB/s, MB/s o GB/s. En algunas ocasiones se
representa por bits por segundo en lugar de bytes (sobre todo en internet). En este caso se
diferencia por que la abreviatura es b (minúscula) en lugar de la B (mayúscula) usada para
los bytes.
Ejemplo Mb/s (Mbps) (megabits por segundo) ―Es una unidad 8 veces menor que en
MB/s‖. No confundir.
Cuando un componente tiene una velocidad de 1Mhz quiere decir que ese componente
realiza algo un millón de veces por segundo. Lo que realice depende del componente.
Resumiendo las unidades de velocidad más usadas en informática serían Kbps o Kb/s,
KBps o KB/s y Mhz o Ghz (mil millones de veces por segundo).
Es semejante a una cosechadora que es capaz de segar varias filas de maíz en cada vuelta
que da al campo. Cuantas más filas de maiz sea capaz de segar a la vez en cada vuelta,
antes acabará de cosechar el campo. Mas ancha la hoja con la que siega implica que tarda
menos en segar.
También pasa esto en el microprocesador. Cuanto mayor sea el número de bits internos del
micro con los que pueda trabajar a la vez, menos tardará en procesar los datos.
Valores típicos para los microprocesadores son 16 (ya en desuso), 32 ó 64 bits internos.
Esto nos da una idea de la rapidez del micro.
Un ordenador que tiene un ciclo o frecuencia de 2Mhz significa que es capaz de realizar 2
millones de instrucciones en cada segundo.
El bus de datos es la autopista por la que se transporta o viaja la información (los bits) de
un sitio a otro del ordenador.
Los datos viajan por cables llamados buses o por el interior de la placa base por la
llamadas pistas.
La placa base envía los datos a su exterior por medio de los cables o buses. Es decir utiliza
buses para enviar la información desde la placa base al resto de componentes, como por
ejemplo al disco duro.
Siguiendo con nuestro ejemplo de la cosechadora, una vez que tiene el grano almacenado,
lo deposita en los remolques de los camiones para transportarlo. De nada sirve disponer de
una gran cosechadora, si luego perdemos mucho tiempo transportándolo en los camiones,
por que estos son pequeños o muy lentos.
A mayor ancho de los buses mas información puede mandar a la vez y por tanto es más
rápido el envío de información.
Por lo tanto en el ordenador, cuanto mayor sea el número de bits del bus de datos, más
fluido y rápido será el tráfico de un sitio a otro del ordenador. Para saber más vete al
siguiente enlace: Cable Bus y Tipos de Buses.
Velocidad bus datos y ancho de banda del bus: Normalmente el ancho de banda de los
bus ahora es de 32 o 64 bits (datos que transporta a la vez) y la velocidad a la que transporta
estos datos también se puede representar por MHz (millones de veces por segundo que
transporta su ancho de banda). Esta puede variar mucho en función del bus del que se trate(
cables, pistas, interior del componente ,etc.). Por ejemplo 533MHzbr
Como conclusión diremos que en la rapidez de un ordenador influyen varios factores:
- Número de bits que puede procesar por cada instrucción: Nº de bits internos o ancho de
banda del micro.
- La velocidad a la que pueden circular los datos de un sitio a otro: Velocidad bus datos y
ancho de banda del bus.
COMPONENTES DE UN ORDENADOR
Si quieres saber más sobre las fuentes te recomendamos este enlace: Fuente de
Alimentación.
- Ranuras PCI: el estándar actual. En estas ranuras se suelen conectar casi todas las
tarjetas excepto quizá algunas tarjetas de vídeo 3D. Generalmente son blancas.
- Ranuras AGP: o más bien ranura, ya que se dedica exclusivamente a conectar tarjetas de
vídeo 3D, por lo que sólo suele haber una.
- Ranuras ISA: son las más veteranas, un legado de los primeros tiempos del PC.
Suficiente para conectar un módem o una tarjeta de sonido, pero la transmisión es muy
lenta para una tarjeta de vídeo.
- Ranuras SIMM y DIMM : Para módulos de ampliación de memoria RAM. Los módulos
SIMM están en desuso.
En los ordenadores es tan grande el tráfico de datos por todos sus buses que se necesita
alguien que dirija ese tráfico, y no solo valdrá con un elemento que lo dirija sino que hará
falta varios especializados, por ejemplo una para que dirija el tráfico de salida y llegada de
los datos al disco duro (controladora del disco duro), otro para decir por donde viajan los
datos al llegar a un punto hasta que llegar a la RAM, otro para controlar el flujo entre la
RAM y el micro, otro para definir cuando salen y por donde van los datos que salen del
micro a la pantalla, otro para definir que datos tienen preferencia, etc. Esto lo hacen las
llamadas controladoras.
IDE/EIDE/ATA/SerialATA/ultraDMA
Un dispositivo SCSI tiene un conector SCSI, cable SCSI, tarjeta controladora SCSI
(algunos la traen incorporada) y conectarse a una ranura SCSI para trabajar bajo un
controlador SCSI. Lo mismo para el Fireware que es un SCSI avanzado.
El "chipset“: mediante este elemento se han integrado en un solo componente los que
antes se encontraba en varias controladores. Se trata de agrupar en un solo componente
controladoras que todos los ordenadores necesitan. Dirige el tráfico de bits en la placa base,
como la forma en que interacciona (se comunica) el microprocesador con la memoria o la
caché, o el control de los puertos y slots ISA, PCI, AGP, USB. Viene insertado en la placa
base.
Las características del chipset y su grado de calidad marcarán los siguientes factores a
tener en cuenta:
Ojo no confundir con el micro. El micro no se ve por que lleva encima el ventilador.
MEMORIA ROM: Su nombre viene del inglés Read Only Memory que significa
Memoria de Solo Lectura ya que la información que contiene puede ser leída pero no
modificada.
En ella se encuentra toda la información que el sistema necesita para poder funcionar
correctamente ya que los fabricantes guardan allí las instrucciones de arranque y el
funcionamiento coordinado del ordenador.
LA BIOS de un ordenador (Basic Input Operative System) es una memoria ROM, pero
con la facultad de configurarse según las características particulares de cada máquina (hay
datos que se pueden modificar no todos). Es un programa instalado en un chip de la placa
base, que se encarga del arranque y la configuración del ordenador. Sustituye a la ROM.
La pila del ordenador, o más correctamente el acumulador, se encarga de conservar los
datos de la BIOS cuando el ordenador está apagado. Sin ella, cada vez que encendiéramos
tendríamos que introducir las características del disco duro, del chipset, la fecha, la hora, el
inicio de Windows al arrancar, etc. El acumulador acaba de descargarse por completo
(como las baterías del móvil) y debe de cambiarse (por ejemplo cuando no cambia la fecha
en el ordenador).
La RAM se puede ampliar con módulos de memoria (solo si escasea, ya que sino no
servirá para nada), pero si ponemos dos RAM con diferentes velocidades de transmisión las
2 trabajarán a la velocidad de la más baja. Existen varios tipos de RAM:
- DRAM : es "la original", y por tanto la más lenta (las hay para ranuras DIMMs o SIMMs
pero este tipo está obsoleto.
- RIMM:. Es la gran rival de la SDRAM,, funcionan en un rango de 900 MHz y 1GHz. Está
por ver si será el modelo estándar de memoria, ya que sus fabricantes, obligan a los que
quieran utilizar su tecnología a pagar cuantiosas cantidades.
Memoria caché : Desde el punto de vista del hardware, existen dos tipos de memoria
caché; interna y externa (L1 o primaria y L2 o secundaria). La memoria caché interna está
incorporada en la CPU (micro) del ordenador, mientras que la externa se encuentra fuera de
la CPU entre el micro y la RAM.
La CPU puede obtener las instrucciones y los datos ubicados en la memoria caché mucho
más rápidamente que las instrucciones y datos almacenados en la memoria principal
(RAM). En la caché se almacenan los datos que más utilizamos normalmente. El micro
mira primero en la caché y si no tiene los datos los obtiene de la RAM. La RAM no es
capaz de trabajar a la velocidad del micro, la Caché sí. Son de tamaño mucha más pequeño
que la RAM porque son mucho más caras. Su capacidad de almacenamiento suele ser de
Kbytes.
La memoria caché es como un tablero de anuncios en el que se colocan los papeles que se
utilizan con mayor frecuencia. Cuando se necesita la información del tablero de anuncios
(CACHE), simplemente se mira al tablero; si hay no están se buscará en el archivador
donde cabe más información pero es más lento encontrarla (RAM). La Ram no es capaz de
trabajar a la velocidad del micro la caché sí.
Memoria Virtual: Es una ayuda a la memoria RAM. Sirve como una ampliación auxiliar
de memoria cuando las cosas se ponen feas, es decir, cuando el sistema escasea de memoria
RAM. Cuando tenemos muchas aplicaciones abiertas y el tamaño de todas ellas supera el
total de memoria RAM física instalada, Windows mueve parte del contenido de la memoria
al disco duro, para dejar espacio libre para nuevas aplicaciones.
Lógicamente el ordenador se pone más lento, porque el disco duro en un almacén que
transmite los datos al micro mucho más lentos que la RAM. El archivo que especifica el
tamaño usado de memoria virtual se llama archivo de paginación (tamaño memoria virtual).
El Microprocesador
- Unidad de control: este componente es responsable de dirigir el flujo (en qué orden
deben ir, y cuando) de instrucciones y de datos dentro de la CPU. Ordena lo que se hace en
el micro en cada momento.
A la hora de elegir un micro tendremos en cuenta lo primero el tipo (Intel Pentium o AMD
Athlon) que sea compatible con la placa base elegida y el chipset, el tipo de zócalo (donde
se inserta en la placa base).
Suelen se tipo socket LGA 775 (para los pentium 4) con mecanismo ZIF que es una
palanca para introducir y sacar el micro, o del tipo socket 939 (para Athlon 64) y la
frecuencia o velocidad. También es importante saber el número de bits (32 o 64) y el
tamaño de la memoria caché.
La CPU o micro se calienta y para ello se le pone un disipador del calor (ventilador).
Ventilador
El Micro (también llamado CPU) se calienta y para ello se le pone un disipador con un
ventilador, si nosotros le aumentamos la frecuencia de trabajo, la temperatura aumentará en
mayor medida y puede afectar en el rendimiento del equipo e incluso puede producir
cuelgues y mal funcionamiento. El ventilador queda en contacto con la CPU.
Los Puertos
Un puerto es por donde se recibe o envía información al ordenador desde el exterior. Por
ejemplo el ratón es un periférico, no pertenece propiamente al ordenador, por eso la
información que se envía desde el ratón al ordenador debe pasar por un puerto (conexión),
que será el puerto donde se conecta el ratón con el ordenador.
El puerto más usado actualmente para conectar casi todos los periféricos es el puerto USB.
De todas formas vamos a ver los tipos de puertos que nos podemos encontrar en un
ordenador mediante la siguiente imagen:
Los puertos serie (COM) : Ya en desuso aunque el PC incluye dos puertos serie.
Puertos PS/2: son un tipo de puerto serie, y a ellos se conectan el teclado y el ratón.
Puerto Fireware: Entrada y salida de datos a gran velocidad. Suele emplearse para
trasferir datos entre cámaras o video cámaras y el ordenado.
Conectores (puertos) VGA: se usan para conectar los monitores y son de color azul.
Puerto HDMI: Es el puerto mejor y más usado para conectar los monitores o pantallas. Es
un puerto que transmite audio y video a la vez (multimedia). Tienen un ancho de banda
(velocidad de transmisión) de hasta 5 gigabytes por segundo, por eso se utiliza para enviar
señales de alta definición HD. Puedes saber más sobre la alta definición en el siguiente
enlace: TV LCD FULL HD.
Tampoco hay que olvidar otro tipo de conectores que son ya habituales en los ordenadores
portátiles como los puertos infrarrojos que transmiten los datos sin cables físicos y los
transmisores bluetooth inalámbricos que generalmente se insertan en un puerto USB o en
tarjeta pcmcia que es otro puerto de comunicaciones.
La tecnología wíreless es para transmisión inalámbrica (por ondas como las de la radio)
entre ordenadores (redes) y usan transmisores wi-fi (antenas, router,etc) para la
transmisión de los datos. En los ordenador modernos viene el transmisor-receptor wi-fi, o
bluetooh incorporado para poder conectar a él componentes con esta tecnología
inalámbrica.
Para saber más sobre los puertos visita este enlace: Puertos de Comunicacion.
Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados
uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad. La
velocidad de rotación, incide directamente en el tiempo de acceso a los datos (rapidez).
En antiguas unidades era de 3.600 rpm (revoluciones por minuto). La mayoría de los
discos duros actuales giran ya a 7.200 rpm, Y actualmente, existen discos de alta gama aún
más rápidos, hasta 10.000 rpm. Dos son los datos importantes a la hora de elegir un disco
duro, su capacidad de almacenamiento (en GB) y su velocidad de rotación (en r.p.m.).
OJO Hay dos tipos de discos duros según el tipo de controladora IDE (o las IDE más
avanzadas) o SCSI (fireware).
La superficie de un disco del disco duro se divide en una serie de anillos concéntricos,
denominados pistas. Al mismo tiempo, las pistas son divididas en tramos de una misma
longitud, llamados sectores; normalmente en un sector se almacenan 512 bytes. Finalmente,
los sectores se agrupan en clúster o unidades de asignación (cantidad mínima de espacio
que se puede asignar a un archivo).
Por ejemplo si el clúster es de 4Kb, significa que para guardar un archivo de 1Kb se usan
4Kb, para guardar 5Kb se emplean 8Kb, por eso el clúster debe ser del menor tamaño
posible. Normalmente 4 sectores de 512 bytes constituyen un Clúster (racimo), y uno o más
Clúster forman una pista.
Ejemplo; 52x/24x/52x (lee regraba graba). En el caso de DVD vienen 2 una para CD y otra
para DVD.
Los DVD de doble capa son DVD en los que los datos se graban en el DVD en dos capas
una encima de otra (doble capacidad), para leer estos DVD se necesita un lector de DVD de
doble capa. (recordar capacidades de almacenamiento disquete, cd y dvd).
Otro dato importante es el buffer de memoria que es la cantidad de datos que puede
almacenar cuando está grabando para que en caso de que el ordenador no mande datos los
pueda leer desde la grabadora sin estropearse la grabación por falta de datos (en MB).
Monitores: Los monitores CRT son los de toda la vida: con su tubo de rayos catódicos;
como los de los televisores. Las características a tener en cuenta en este tipo de monitores
es el tamaño (en pulgadas) y su frecuencia o velocidad de refresco (número de veces que la
pantalla se dibuja por segundo (parpadeo). Ejemplo un monitor de 60Hz (mínimo
aceptable) se dibuja la pantalla 60 veces cada segundo.
Las pantallas TFT (cristal líquido LCD) Son los más recientes frutos de la tecnología
aplicada al mundo de los monitores planos, dejando atrás a los modelos de tubo CRT.
Aunque estos monitores no parpadean tienen una característica similar al a frecuencia de
refresco y es el tiempo de respuesta (tiempo que tarda en realizar un cambio en el monitor
pedido por el usuario), cuanto más pequeño sea mejor. Se mide en milisegundos (20ms
mínimo para evitar efectos de ver el rastro del movimiento del ratón por ejemplo). Estos
monitores tienen una resolución fija, si se cambia pierde calidad la imagen.
El microprocesador es uno de los componentes que hay que prestar más atención a la hora
de actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto
de elementos. Esta afirmación implica que es absurdo poner el último procesador hasta los
topes de Mhz con solo 32 o 64 Mb de RAM, o con una tarjeta gráfica deficiente, o un
sistema de almacenamiento (disco duro) lento y escaso.
Hay que hacer una valoración de todos los elementos del ordenador, actualmente en las
tiendas suelen venderse digamos "motores de un mercedes en la carrocería de un 600". Esto
tenemos que evitarlo.
Además del microprocesador, la velocidad general del sistema se verá muy influenciada
debido a la placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco
duro.
En esta foto de la placa base puedes ver muchos de los componentes explicados:
Sistema de información:
La manera en que una computadora organiza, da nombre, almacena y manipula los archivos
se denomina globalmente como su sistema de archivos. Todas las computadoras tienen al
menos un sistema de archivos; algunas computadoras permiten usar varios sistemas de
archivos diferentes. Por ejemplo, en las computadoras Windows más recientes, se
reconocen los antiguos sistemas de archivos FAT y FAT32 de las versiones antiguas de
Windows, además del sistema de archivos NTFS que es el sistema de archivos normal en
las versiones recientes de Windows. NTFS no es más moderno que FAT32; ha existido
desde que Windows NT se publicó en 1993.
Cada sistema de archivos tiene sus propias ventajas y desventajas. La FAT estándar
solamente permite nombres de archivo de ocho bytes (o ocho caracteres de solo 1 byte)
(más una extensión de tres bytes/caracteres) sin espacios, por ejemplo, mientras que NTFS
permite nombres mucho más largos que pueden contener espacios, y tener varias letras
unicode. Puede llamar a un archivo Registros de nóminas en NTFS, mientras que en FAT
estaría limitado a algo como [Link] (salvo que estuviera usando VFAT, una extensión
de FAT que permite nombres de archivo largos).
Los programas gestores o administradores de archivos son utilidades que le permiten
manipular archivos directamente. Le permiten mover, crear, borrar y renombrar archivos y
carpetas, aunque no le permiten realmente leer el contenido de un archivo o almacenar
información en él. Cada sistema informático proporciona al menos un programa gestor de
archivos para su sistema de archivos nativo. En Windows, el gestor de archivos usado más
comúnmente es Windows Explorer.
BASE DE DATOS: Una base de datos o banco de datos (en inglés: database) es un
conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente
para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos
compuesta en su mayoría por documentos y textos impresos en papel e indexados para su
consulta. En la actualidad, y debido al desarrollo tecnológico de campos como
la informática y la electrónica, la mayoría de las bases de datos están en formato digital
(electrónico), que ofrece un amplio rango de soluciones al problema de almacenar datos.
Existen unos programas denominados sistemas gestores de bases de datos, abreviado
SGBD, que permiten almacenar y posteriormente acceder a los datos de forma rápida y
estructurada. Las propiedades de estos SGBD, así como su utilización y administración, se
estudian dentro del ámbito de la informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas.
También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la
información experimental.
Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se
encuentran protegidos por las leyes de varios países. Por ejemplo en España, los datos
personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de
Carácter Personal (LOPD).
Éstas son bases de datos de sólo lectura, utilizadas primordialmente para almacenar datos
históricos que posteriormente se pueden utilizar para estudiar el comportamiento de un
conjunto de datos a través del tiempo, realizar proyecciones y tomar decisiones.
DIRECTORIOS
Redes de computadoras
Historia
El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En
1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire,
a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creados
los miniordenadores. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores
personales. En 1981, IBM introduce su primer PC. A mitad de la década de 1980 los PC
comienzan a usar los módem para compartir archivos con otros ordenadores, en un rango
de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a
punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad,
especialmente ADSL en el 1980 .
Descripción La comunicación por medio de una red se lleva a cabo en dos diferentes
categorías:
Red inalámbrica de área personal (Wireless Personal Area Network, WPAN), es una
red de ordenadores inalámbrica para la comunicación entre distintos dispositivos (tanto
ordenadores, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de
audio, impresoras) cercanos al punto de acceso. Estas redes normalmente son de unos
pocos metros y para uso personal, así como fuera de ella. El medio de transporte puede
ser cualquiera de los habituales en las redes inalámbricas pero las que reciben esta
denominación son habituales en Bluetooth.
Red de área local (Local Area Network, LAN), es una red que se limita a un área
especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un
avión. Las redes de área local a veces se llaman una sola red de localización. No
utilizan medios o redes de interconexión públicos.
Red de área local inalámbrica (Wireless Local Area Network, WLAN), es un sistema
de comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las
redes de área local cableadas o como extensión de estas.
Red de área de campus (Campus Area Network, CAN), es una red de ordenadores de
alta velocidad que conecta redes de área local a través de un área geográfica limitada,
como un campus universitario, una base militar, hospital, etc. Tampoco utiliza medios
públicos para la interconexión.
Red de área metropolitana (Metropolitan Area Network, MAN) es una red de alta
velocidad (banda ancha) que da cobertura en un área geográfica más extensa que un
campus, pero aun así limitado. Por ejemplo, una red que interconecte los edificios
públicos de un municipio dentro de la localidad por medio de fibra óptica.
Red de área amplia (Wide Area Network, WAN), son redes informáticas que se
extienden sobre un área geográfica extensa utilizando medios como: satélites, cables
interoceánicos, Internet, fibras ópticas públicas, etc.
Red de área de almacenamiento (Storage Area Network, SAN), es una red concebida
para conectar servidores, matrices (arrays) de discos y librerías de soporte, permitiendo
el tránsito de datos sin afectar a las redes por las que acceden los usuarios.
Red de área local virtual (Virtual LAN, VLAN), es un grupo de ordenadores con un
conjunto común de recursos a compartir y de requerimientos, que se comunican como
si estuvieran adjuntos a una división lógica de redes de ordenadores en la cual todos los
nodos pueden alcanzar a los otros por medio de broadcast (dominio de broadcast) en la
capa de enlace de datos, a pesar de su diversa localización física. Este tipo surgió como
respuesta a la necesidad de poder estructurar las conexiones de equipos de un edificio
por medio de software,10 permitiendo dividir un conmutador en varios virtuales.
Por topología física
Red en bus (bus o «conductor común») o Red lineal (line): se caracteriza por tener un
único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan
los diferentes dispositivos.
Red en anillo (ring) o Red circular: cada estación está conectada a la siguiente y la
última está conectada a la primera. Además, puede compararse con la red en cadena
margarita (daisy chain).
Red en estrella (star): las estaciones están conectadas directamente a un punto central y
todas las comunicaciones se han de hacer necesariamente a través de este.
Red en malla (mesh): cada nodo está conectado a todos los otros.
Red en árbol (tree) o red jerárquica: los nodos están colocados en forma de árbol.
Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en
estrella interconectadas salvo en que no tiene un nodo central.
Red híbrida o red mixta: se da cualquier combinación de las anteriores. Por ejemplo,
circular de estrella, bus de estrella, etc
La Telemática
Aquello que se entiende por telemática, por lo tanto, es muy Con formato: Color de fuente: Texto
1
amplio ya que abarca el diseño, el análisis y la aplicación de todos
los servicios y de la infraestructura que permiten procesar,
almacenar y transmitir información.
El intercambio de mensajes a través de aplicaciones como WhatsApp forma parte de la telemática.
La persona que ingresa a la aplicación desde su teléfono celular (móvil), escribe un mensaje y se lo
envía a otro usuario está haciendo uso de la telemática.
Lo mismo ocurre con quien envía y recibe mensajes de correo electrónico. Supongamos que, a lo
largo de una jornada de trabajo, el dueño de una empresa intercambia cinco emails con el gerente
de marketing acerca de un proyecto a desarrollar. Dichas comunicaciones son posibles gracias a la
telemática.
Los servicios de comercio electrónico (conocidos como e-commerce), las transmisiones digitales
de televisión, el posicionamiento geográfico mediante GPS y las herramientas que permiten el
desarrollo de un proceso educativo a distancia también forman parte del ámbito de la telemática.
Las personas que se especializan en estas cuestiones pueden formarse como técnicos en
telemática o ingenieros en telemática, de acuerdo al plan de estudio. Esta formación las habilita
para trabajar en diversas áreas de las telecomunicaciones y en la gestión de redes, por ejemplo.
Por lo tanto, ambos profesionales, el técnico y el ingeniero telemático, están preparados para
asumir una amplia gama de puestos de trabajo, y esto explica en gran parte la popularidad de
estas carreras en muchos países. Dicho esto, veamos una lista de algunas de las tareas que pueden
llevar a cabo:
Estos profesionales deben contar con ciertos conocimientos fundamentales de informática, como
ser los principios de un sistema operativo y la arquitectura de un ordenador o servidor, ya que
resultan necesarios para la mayoría de sus tareas. Del mismo modo, deben dominar el diseño, la
implementación el mantenimiento de bases de datos, tener presentes las características de cada
capa de la pila de protocolos TCP/IP, y ser capaces de programar dispositivos de acceso a
información en ambiente Windows y Unix. A pesar de la amplitud de estas carreras, destaca una
clara orientación a las comunicaciones.
La Ofimática
Ofimática, a veces también llamado burótica, designa al conjunto de técnicas, aplicaciones y
herramientas informáticas que se utilizan en funciones de oficina para optimizar, automatizar,
mejorar tareas y procedimientos relacionados
Qué es la Innovación:
Innovación es una acción de cambio que supone una novedad. Esta palabra procede del
latín innovatĭo, -ōnis que a su vez se deriva del término innovo, -are―hacer nuevo‖,
―renovar‖, que se forma con in- ―hacia dentro‖ y novus ―nuevo‖.
La innovación se acostumbra a asociar con la idea de progreso y búsqueda de nuevos
métodos, partiendo de los conocimientos que le anteceden, a fin de mejorar algo que ya
existe, dar solución a un problema o facilitar una actividad.
La innovación es una acción continua a lo largo del tiempo y abarca diferentes campos del
desarrollo humano.
Entre otros términos que tienen un significado similar y se pueden emplear como sinónimo
están adelanto, invento, reforma, renovación, entre otros.
Innovación tecnológica
El campo de la tecnología se caracteriza por un continuo avance. La innovación, por lo
tanto, es una de las características de la tecnología que supone la creación de nuevos
dispositivos, en muchos casos, a partir de la modificación de elementos ya existentes.
Por tanto, la innovación conlleva a la competitividad y desarrollo de bienes y
servicios tecnológicos de alta calidad.
La introducción de nuevos cambios permite la creación de nuevos productos que,
seguramente en el futuro también se verán sometidos a procesos de innovación según las
diversas necesidades tecnológicas que se deban cubrir.
Entre los ejemplos de innovación tecnológica que se pueden mencionar están los diversos
dispositivos electrónicos, como los teléfonos móviles de última generación que contienen
diversas aplicaciones útiles para los usuarios.
Innovación empresarial
En el mundo empresarial la innovación es uno de los elementos que se tienen en cuenta a la
hora de tener éxito comercial.
Innovación educativa
La Informática no puede ser una asignatura más, sino la herramienta que pueda ser útil a todas las
materias, a todos los docentes y a la escuela misma, en cuanto institución que necesita
una organización y poder comunicarse con la comunidad en que se encuentra. Entre las aplicaciones más
destacadas que ofrecen las nuevas tecnologías se encuentra la multimedia que se inserta rápidamente en
el proceso de la educación y ello es así, porque refleja cabalmente la manera en que el alumno piensa,
aprende y recuerda, permitiendo explorar fácilmente palabras, imágenes, sonidos, animaciones y videos,
intercalando pausas para estudiar, analizar, reflexionar e interpretar en profundidad
la información utilizada buscando de esa manera el deseado equilibrio entre la estimulación sensorial y
la capacidad de lograr el pensamiento abstracto. En consecuencia, la tecnología multimedia se convierte
en una poderosa y versátil herramienta que transforma a los alumnos, de receptores pasivos de la
información en participantes activos, en un enriquecedor proceso de aprendizaje en el que desempeña un
papel primordial la facilidad de relacionar sucesivamente distintos tipos de información, personalizando
la educación, al permitir a cada alumno avanzar según su propia capacidad. No obstante, la mera
aplicación de la multimedia en la educación no asegura la formación de mejores alumnos y futuros
ciudadanos, si entre otros requisitos dichos procesos no van guiados y acompañados por el docente. El
docente debe seleccionar criteriosamente el material a estudiar a través del computador; será necesario
que establezca una metodología de estudio, de
La innovación dentro del área de la educación supone introducir cambios novedosos en
esta área para mejorar el proceso de enseñanza y aprendizaje.
La innovación educativa puede afectar a varios elementos como los recursos materiales
utilizados, por ejemplo, la introducción de dispositivos interactivos como las pizarras
digitales en el aula; así como a las actividades, la temporalización o los métodos de
evaluación.
En ocasiones, los cambios que se introducen afectan a todo el proceso educativo. Por
ejemplo, los procesos formativos de educación a distancia suponen una innovación
educativa que conllevan cambios a todos los niveles.
Innovación disruptiva
El concepto de ―innovación disruptiva‖ se utiliza especialmente en el área empresarial. Se
refiere un proceso de cambio innovador orientado a un público minoritario y que se
convierte con rapidez en una realidad con gran demanda comercial.
La innovación disruptiva se da cuando nuevas empresas presentan nuevos productos,
servicios o modelos de negocio que superan en el mercado a empresas líderes del mismo
sector.
Un ejemplo puede ser Skype, que supuso una innovación y un éxito en el mercado de las
telecomunicaciones.
Innovación y creatividad
En muchos casos, la innovación está fuertemente unida a la creatividad, el descubrimiento
y la invención. Para realizar un cambio que suponga introducir algo nuevo es necesario un
proceso creativo.
Innovación es cambio
Toda innovación debe ser también un mejoramiento con respecto a lo que existía
anteriormente. Muchos aspectos suponen una mejoría, bien porque ahorran tiempo, hacen
más efectivo o fácil un proceso, reducen costos, o bien porque su impacto medioambiental
es menor, etc.
Un ejemplo de simplificación son los buscadores en internet, que nos permiten navegar por
el ciberespacio sin abrumarnos por la sobreabundancia de información. Google, en este
sentido, tiene un avanzado sistema de búsqueda que clasifica la información que buscamos
según su utilidad, calidad y adecuación a nuestros intereses.
Por ejemplo, la llegada de las pantallas táctiles ahora nos permite usar nuestros dispositivos
electrónicos (teléfonos, tabletas, computadoras) de manera directa e intuitiva, sin que
necesitemos un largo manual de usuario para ello.
Innovación es adaptabilidad
El Sistema de posicionamiento global GPS cambió la forma que nos desplazamos. Gracias
a este sistema creado inicialmente sólo para uso militar, hoy podemos situarnos en un lugar
desconocido y encontrar caminos sin la necesidad de un mapa ni de conocimiento previo.
El GPS usa los 24 satélites que orbitan nuestro planeta Tierra para entregar la ubicación
exacta directamente a nuestro dispositivo electrónico. Desde el diseño de mapas en II a.C. y
el invento de la brújula en 1090, el GPS constituye una innovación tecnológica
sorprendente para ubicarnos en este mundo.
2. Nanorobots
Los nanorobots son sistemas diseñados para desempeñar tareas específicas en dimensiones
de escala nanométrica (milmillonésima parte de un metro). Esta gran innovación
tecnológica del catalán Samuel Sanchez (1980-) fue pensada como una cura al cáncer.
Gracias a esta innovación tecnológica, Samuel Sanchez fue elegido en 2014 como el Mejor
innovador del año menor de 35 años en la famosa revista de MIT (Massachusetts institute
of technology).
4. Internet
Internet ha generado una revolución en la comunicación moderna desde que se estableció la
primera red de conexión en 1969. Esta tecnología ha sido clave para las innovaciones
creadas a partir del siglo XXI y en nuestra forma de vida.
Gracias a Internet, hoy estamos más conectados que nunca en una sociedad parcialmente
globalizada. Podemos compartir momentos con familiares y amigos e información a través
de la red casi instantáneamente. Internet, junto con la web, ha sido una de las innovaciones
tecnológicas más sorprendentes que han modelado nuestra sociedad actual.
5. Teléfono inteligente
El teléfono inteligente ha reemplazado la forma de comunicarnos, de registrar, de pensar y
hasta de pagar. Gracias a este dispositivo electrónico que casi todos los individuos de hoy
tenemos, es posible hacer todas las tareas de forma remota y en cualquier lugar.
6. Marcapasos
Refrigerador
El refrigerador puede que no parezca nada sorprendente pero es una innovación tecnológica
que revolucionó la forma en que nos alimentamos. Gracias al refrigerador, patentado por
primera vez en 1834, el aumento de la población en las ciudades se vuelve posible gracias a
las cadenas de distribución de alimentos que utilizan la refrigeración.
El código QR, por sus siglas en inglés para quick response o ―respuesta rápida" en español,
es una innovación tecnológica que sorprende por la cantidad de información que puede ser
extraída de forma simple y rápida. De esta manera, el código QR ha permitido innovar
hasta en la forma que hoy en día compramos y vendemos, sin el uso del dinero físico.
Inventada en 1999 por el japonés Masahiro Hara, logra que la información más compleja
pueda ser extraída escaneando el código de forma horizontal o vertical. Su antecesor, el
código de barras inventado en 1973, requirió del avance científico y tecnológico pasando
desde el rayo láser hasta la tecnología informática.
9. Pararrayos
Si toda la carga eléctrica de los relámpagos se extendiese por todas las ciudades en los días
de tormenta, no sería posible mantener la cantidad de dispositivos electrónicos que hoy
tenemos en nuestras casas.
1. Herramientas de corte
Los vestigios de la primera lanza datan de los 400.000 a. de C. Este invento introduce la
caza como una actividad habitual para la búsqueda de comida y, como consecuencia, obliga
a las comunidades a organizarse.
2. Arte pictográfico
Hace 17.000 años, algunos humanos de Altamira, España, dejaron sus huellas en piedras
usando pigmentos de la región, plasmando lo que llamamos hoy pintura rupestre, nuestra
primera expresión de arte.
Esta forma básica de expresar lo que vemos, ha evolucionado en el tiempo hasta llegar a las
complejas composiciones artísticas digitales que vemos hoy.
Las imágenes se convirtieron en una forma de expresión esencial en el ser humano. Gracias
a nuestra fascinación por la representación gráfica, la ciencia y la tecnología avanzaron
hacia la creación de la fotografía por Joseph Niépce (1765-1833) junto con Louis Daguerre
(1787-1851) en 1839 y el cine por los hermanos Lumière en 1859.
Junto con el surgimiento de otras innovaciones, hoy en día usamos tecnologías para la
creación de imágenes en formato digital, desde los programas para la edición de imágenes
como el Photoshop, hasta la tecnología de realidad virtual que recrea un mundo en tres
dimensiones.
3. Vivienda
5. Escritura
La escritura es una de las innovaciones que ha cultivado y elevado nuestro conocimiento,
ya que registra y transmite información amortiguando la barrera oral de la inmediatez. Los
primeros registros fueron encontrados en Mesopotamia alrededor del 3.500 a. de C.
6. Lentes
.
El primer lente de aumento descubierto tiene más de 3.000 años y fue bautizado como lente
de Nimrud. Fue usado por los asirios para observar el cielo. Pasando por los avances
tecnológicos creados por los egipcios, los chinos y los griegos, las primeras gafas se
comercializan alrededor del año 1.280.
A partir de esta innovación, surge en 1595 la invención del primer microscopio por
Zacharias Jansen (1580-1638). Esta innovación científica y tecnológica abriría las puertas
hacia la observación del mundo de los microorganismos, constituyendo la base de los
avances en la medicina.
A su vez, en 1609, Galileo Galilei comienza a experimentar con lentes, construyendo los
primeros telescopios que sirvieron para los avances en el conocimiento de nuestro sistema
solar y del universo.
7. Máquina a vapor
En 1768, James Watt (1736-1819), con la ayuda financiera de Matthew Boulton (1728-
1809), crea el primer motor que evitaba la pérdida constante de energía en las máquinas a
vapor. De esta forma, se crea el concepto ―caballos de fuerza‖ y se bautiza la potencia de la
unidad eléctrica como watts (vatio en español).
9. Pilas o baterías
Alessandro Volta (1745-1827) inventa la primera pila en el año 1800 al descubrir que el
contacto de dos metales con un conductor líquido producía energía eléctrica. De esta
manera, era posible producir energía.
Posteriormente, Gaston Planté (1834-1889) crea en 1860 la primera batería automotriz que
permitía recargar la celda una vez que esta se agotaba.
10. Telégrafo
El telégrafo fue perfeccionado para uso cotidiano por Samuel Morse (1791-1872) en 1830.
Esta innovación tecnológica y científica es considerada el inicio de la revolución de
los medios de comunicación.
En este sentido, nace el teléfono en 1875 con Graham Bell (1847-1922), y la radio, cuyo
invento fue atribuido a Guglielmo Marconi (1874-1937), siendo la primera prueba exitosa
alrededor del año 1897.
Como consecuencia de las innovaciones tecnológicas del momento, nace la televisión, cuyo
primer modelo mecánico fue creado por John Logie Baird (1888-1946) en 1924, pero que
solo fue conocida como televisión en 1926. Y no podemos dejar de mencionar al medio de
comunicación más común de hoy, la computadora creada por Konrad Zuse (1910-1995) en
1941.
Significado de Tecnología
Qué es Tecnología:
Se conoce como tecnología a un producto o solución conformado por un conjunto de
instrumentos, métodos y técnicas diseñados para resolver un problema.
Generalmente, se asocia la tecnología con el saber científico y la ingeniería; sin embargo,
tecnología es toda noción que pueda facilitar la vida en sociedad, o que permita satisfacer
demandas o necesidades individuales o colectivas, ajustadas a los requerimientos de una
época específica.
Para que una tecnología pueda ser considerada dura, debe cumplir con estas características:
Tecnología blanda
Es todo el conocimiento o metodología que ha sido creado para mejorar las dinámicas
sociales. Se le llama así porque se genera a partir de las llamadas ciencias blandas, como la
psicología, la economía, las letras, la estadística, las ciencias sociales, etc.
Avances de la tecnología
La tecnología ha sido clave en el progreso técnico de la humanidad, en este sentido se ha
podido evidenciar avances tecnológicos puntuales e importantes en diferentes épocas como:
Tecnología en la educación
Un grupo de estudiantes estudia una obra de arte haciendo uso de realidad aumentada.
La tecnología educativa o aplicada a la educación comprende el conjunto de conocimientos
científicos y pedagógicos, asociados a métodos, técnicas, medios y herramientas, que es
aplicado con fines instructivos en el proceso de enseñanza-aprendizaje.
Por ello, se hace un importante énfasis en el apoyo que presta un recurso material como la
tecnología audiovisual en el proceso educativo, así como la tecnología digital.
Algunas de las TIC de uso más común hoy en día son las redes de telefonía móvil, los
dispositivos móviles (teléfonos, laptops), servicios de correo y juegos en línea.
Las TIC han transformado los parámetros de obtención de información por medio de las
tecnologías de la comunicación (diario, radio y televisión), a través del desarrollo de
Internet y de los nuevos dispositivos tecnológicos como la computadora, la tableta y
el smartphone, así como las plataformas y softwares disponibles.
Tipos de TIC
Cuando se habla de TIC, se puede referir a diferentes criterios según el contexto de uso del
término. A saber:
1. Redes. Se refiere tanto a las redes de radio y televisión, como a las redes de telefonía fija y
móvil, así como el ancho de banda.
2. Terminales y equipos. Abarca todo tipo de aparatos a través de los cuales operan las redes
de información y comunicación. Por ejemplo: ordenadores, tabletas, teléfonos celulares,
dispositivos de audio y vídeo, televisores, consolas de juego, etc.
3. Servicios. Se refiere al amplio espectro de servicios que se ofrecen por medio de los
recursos anteriores. Por ejemplo: servicios de correo electrónico, almacenamiento en la
nube, educación a distancia, banca electrónica, juegos en línea, servicios de
entretenimiento, comunidades virtuales y blogs.
Las TIC en el entorno laboral
Las TIC son parte esencial del entorno laboral de la actualidad. Ellas facilitan el
almacenamiento de bases de datos complejas, bien en servidores locales o servicios en la
nube.
Asimismo, las TIC son fundamentales para el desarrollo del comercio en línea, la banca
electrónica, los trabajos de contabilidad, la búsqueda de información, el control del
inventario, la producción de material informativo como texto, audio y vídeo, y,
fundamentalmente, la comunicación inmediata y eficaz.
Sin embargo, las TIC también pueden ser fuentes de distracción, pues su uso cada vez más
frecuente, disperso y adictivo hace que los trabajadores se dispersen de sus tareas,
aumentando el índice de olvidos y retrasos involuntarios.
También las redes sociales como WhatsApp o Facebook, herramientas como los blogs y
servicios de nube, resultan herramientas educativas para desarrollar conocimiento sobre
principios interactivos y colaborativos.
La información es abundante, pero no está organizada sino dispersa, lo cual puede resultar
abrumador;
Las TIC pueden resultar una fuente de distracción que dispersa al sujeto de su objetivo;
Los dispositivos e instrumentos como plataformas cambian constantemente, lo que supone
un continuo esfuerzo de actualización;
Aumenta el riesgo de vulnerabilidad de los datos personales.
En el ámbito específico de la educación, a estas desventajas se añaden las siguientes:
Aún existe gran desigualdad en el acceso a la tecnología debido a factores como la pobreza
o la falta de políticas públicas educativas.
La efectividad de su uso depende de la integración en el currículo escolar;
El uso de las TIC requiere de espacios adecuados y dotación de equipos;
Sin una adecuada preparación o un plan de enseñanza bien estructurado por parte de
Estado, escuela y profesor, las TIC pueden crear dispersión en lugar de aprendizaje.
El riesgo de exposición al ciberbullying aumenta considerablemente.
Biotecnología
La biotecnología es un campo de estudio de enfoque multidisciplinario que incluye las
áreas de biología, química, genética, virología, agronomía, ingeniería, medicina y
veterinaria. La biotecnología es aplicada en la agricultura, la industria alimentaria y
farmacéutica, las ciencias forestales y la medicina.
Por ejemplo, fabricación del yogur, el queso o las bebidas alcohólicas, requieren de
procesos biotecnológicos como la creación de levaduras para obtener un producto apto para
el consumo humano.
Bibliografía:
[Link]
[Link]
[Link]
&aqs=chrome..69i57j0l7.16985j1j4&sourceid=chrome&ie=UTF-8
[Link]
[Link]
7.12782j0j4&sourceid=chrome&ie=UTF-8
[Link]
[Link]
[Link][Link]
herramientas/
[Link]
57j0l7.9988j0j9&sourceid=chrome&ie=UTF-8
[Link]
[Link]
%C3%A1tica&aqs=chrome.0.69i59j0l4j69i60l3.19275j0j9&sourceid=chrome&ie=UTF-8
[Link]
[Link]
[Link][Link]
informacion&aqs=chrome..69i57j0l7.22244j0j4&sourceid=chrome&ie=UTF-8
[Link]
[Link]
ome.1.69i57j0l4j69i60l3.19306j1j4&sourceid=chrome&ie=UTF-8
[Link]
7373&ei=oRzHXrifFrCIggf1kL6QDw&q=7+caracteristicas+esenciales+de+la+innovacion&oq=7+cara
cteristicas+de+inno&gs_lcp=CgZwc3ktYWIQARgBMgYIABAWEB4yBggAEBYQHjoKCCMQsAMQJxCLA
zoJCCMQJxBGEPkBOgIIADoHCAAQFBCHAjoKCAAQFBCHAhCLAzoFCAAQiwM6BAgAEAo6BwgAEAo
QiwM6BAgAEEM6BwgAEEMQiwM6BAgjECc6BwgjEOoCECc6CggjEOoCECcQiwM6CAghEBYQHRAeO
gsIIRAWEB0QHhCLA1DmsgRY8q4GYNbYBmgBcAB4AIABrQGIAdUukgEENi40NJgBAKABAaoBB2d3cy
13aXqwAQa4AQI&sclient=psy-ab
[Link]
caracteristicas-principales
[Link]
[Link]
s=chrome..69i57j0l5j69i61l2.6758j0j4&sourceid=chrome&ie=UTF-8
[Link]
[Link]