EVIDENCIA ArquitecturaPCySnO
PRESENTADA POR EL APRENDIZ
Diego Andrés Mendoza Urueta
PRESENTADO AL INSTRUCTOR
JHONNY ARIZA ARNEDO
GESTION DE REDES DE DATOS
CENTRO COLOMBO ALEMAN, REGIONAL ATLANTICO
SERVICIO NACIONAL DE APRENDIZAJE SENA
BARRANQUILLA
2020
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
INTRODUCCIÓN
En esta guía indenticaremos que partes del computador conozco y que
sistemas operativos , hay un texto donde nos describe la evolución histórica
de los computadores y compalias fabriacantes de estas,cuales son las
diferencias de sistemas operativos mono-tareay multi-tareas ,identificare la
evolucionde sistemas operativos móviles y aprendere a realizar maquinas
virtuales y instalares sus drives,
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
DESARROLLO
FORMULACION DE LAS ACTIVIDADES DE APRENDIZAJE
3.1 Actividades de Reflexión inicial.
3.1.2 Liste las partes de un computador que usted identifica.
R=/ Las partes del computador que yo identifico son:
1. CPU
2. Memoria RAM
3. Disco Duro
4. Monitor
5. Teclado
6. Mouse
7. Microprocesador
3.1.3 Liste los sistemas operativos que conoce.
R=/ Los sistemas operativos que conozco son:
1. Windows
2. Linux
3. Mac Os
3.2 Actividades de contextualización e identificación de conocimientos necesarios
para el aprendizaje.
Lea atentamente el capítulo 1 del libro Estructura y tecnología de
computadores (Gestión y Sistemas) ubicado en la biblioteca virtual
del Sena [Link]
[Link]/es/lc/senavirtual/titulos/48716
3.2.1 Según la evolución histórica de los computadores descrita en el
texto cual considera que es la más importante, justifique su respuesta.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
R=/ Según el texto y mi propia manera de pensar determino que a
raíz de la evolución todos han sido importaste ya que gracias a
todos se ah logra tener un avance más de lo que nunca se pensó
lograr. Pero en conclusión en la evolución en la historia el que
marco un gran avance en la creación de la primeras computador
es el transistor así logrado reducir el tamaño y los costos de
producción y amplificando la potencia manejada por un dispositivo
electrónico.
3.2.2 ¿Cuál de las compañías fabricantes mencionadas en el
texto ha evolucionado más tecnológicamente según su
concepto? justifique su respuesta.
R=/ En mi concepto IBM es la compañía mayor productora a
nivel mundial de servidores y sistema de computador y que
ha tenido grandes avances tecnológicos en los grades
mainframes y ordenadores [Link]í logrando ser una
de la empresa con mayor avance tecnológico en mi opinión .
3.2.3 Identifique las diferencias entre sistema operativo mono-
tarea y multi-tarea.
R=/Sistema Operativo Multitareas.
Es el modo de funcionamiento disponible en algunos sistemas operativos,
mediante el cual una computadora procesa varias tareas al mismo tiempo.
Existen varios tipos de multitareas. En los sistemas multitarea de tiempo
compartido, como OS/2, cada tarea recibe la atención del microprocesador
durante una fracción de segundo. Para mantener el sistema en orden, cada
tarea recibe un nivel de prioridad o se procesa en orden secuencial. Dado que
el sentido temporal del usuario es mucho más lento que la velocidad de
procesamiento del ordenador, las operaciones de multitarea en tiempo
compartido parecen ser simultáneas.
Sistema Operativo Monotareas.
Los sistemas operativos monotareas son más primitivos y es todo lo contrario
al visto anteriormente, es decir, solo pueden manejar un proceso en cada
momento o que solo puede ejecutar las tareas de una en una. Por ejemplo
cuando la computadora está imprimiendo un documento, no puede iniciar otro
proceso ni responder a nuevas instrucciones hasta que se termine la
impresión. (Ordoñez, Ordoñez and perfil, 2021)
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
3.2.4 Identifique la evolución que han tenido los sistemas operativos en
dispositivos móviles y realice un cuadro comparativo de utilización en la
actualidad.
R=/ Jan 1, 1996
Lanzamiento de Palm OS
Sistema operativo qué diseñado para la facilidad de uso con una interfaz
gráfica de usuario basada en pantallas táctiles.
Mar 10, 1997
Actualización de Palm OS a 2.0
Palm OS 2.0 se lanzó el 10 de marzo 1997 con la PalmPilot Personal y
Professional. Esta versión añade soporte de red TCP/IP, HotSync por red, y
soporta la retroiluminación de la pantalla. La última versión de corrección es la
versión 2.0.5.
Se añaden dos nuevas aplicaciones, Mail y Expense, y las aplicaciones PIM
estándar se han mejorado.
Advertisements
Mar 9, 1998
Palm OS 3.0
Palm OS 3.0 fue presentado el 9 de marzo de 1998, con el lanzamiento de la
serie Palm III. Esta versión añade comunicaciones por infrarrojos IrDA y
soporte de fuentes mejoradas. Esta versión también cuenta con aplicaciones
PIM actualizados y una actualización del lanzador de aplicaciones.
Jan 11, 1999
Blackberry OS 1.0
El sistema operativo BlackBerry hizo su debut y fue lanzado para el Pager
BlackBerry 580.
Apr 19, 2000
Pocket PC 2000
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Nombre código "Rapier". Incluía los programas de Office en su versión
Pocket, así como Windows Media Player y Notes, aplicación para tomar
notas.
Mar 19, 2001
Palm OS 4.0
Lanzado con el Palm m500 series. Esta versión añade una interfaz estándar
para acceder al sistema de archivos externo (como tarjetas SD).
Advertisements
Oct 11, 2001
Pocket PC 2002
Basado en Windows CE 3.0 diseñado para resolución 240 × 320 (QVGA) en
dispositivos Pocket PC y los primeros denominados Smartphones.
Mar 11, 2002
Blackberry OS 3.6
Fecha de lanzamiento del smartphone BlackBerry 5810.
Advertisements
Jun 1, 2002
Palm OS 5
Implementado por primera vez en el Palm Tungsten T. Se trata de la primera
versión lanzada para apoyar dispositivos ARM, con soporte para aplicaciones
de DragonBall a través de la compatibilidad con el entorno de aplicaciones de
Palm (PACE) emulador.
Jun 23, 2003
Windows Mobile 2003
originalmente nombre código "Ozono", fue puesto lanzado el 23 de junio de
2003 y fue el primer lanzamiento bajo la saga de Windows Mobile. Llegó en
cuatro ediciones: "Windows Mobile 2003 para Pocket PC Premium Edition",
"Windows Mobile 2003 para Pocket PC Professional Edition", "Windows
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Mobile 2003 para Smartphone" y "Windows Mobile 2003 para Pocket PC
Phone Edition". El último ha sido diseñado especialmente para PCs de bolsillo
que incluyen funcionalidades de un teléfono.
May 12, 2005
Windows Mobile 5
originalmente nombre código "Magneto", Fue lanzado en el Microsoft Mobile y
Embedded Developers Conference 2005 en Las Vegas. Microsoft ofrece
soporte estándar para Windows Mobile 5 hasta el 12 de octubre del 2010, y
se extendió el apoyo el 13 de octubre de 2015. Fue ofrecido por primera vez
en el Dell Axim x51. Se utilizó el. NET Compact Framework 1.0 SP3, un
entorno para programas basado en .NET.
Jul 1, 2005
Google compra Android Inc.
Inicialmente desarrollado por Android Inc., empresa cuya Google financiaba, y
finalmente pago por ella para incluir a su Co-fundador e ingenieros en su
equipo de trabajo con el fin de impulsar su creencia de "Wireless is the next
frontier in search."
Advertisements
Jan 9, 2007
iPhone OS
Sistema operativo móvil de la empresa Apple Inc. Originalmente desarrollado
para el iPhone (iPhone OS), siendo después usado en dispositivos como el
iPod Touch, iPad y el Apple TV. Apple, Inc. no permite la instalación de iOS
en hardware de terceros.
Feb 12, 2007
Windows Mobile 6
Ofrece tres versiones: Windows Mobile 6 Standard para Smartphones
(teléfonos sin pantalla táctil), Windows Mobile 6 Professional para PDAs con
la funcionalidad del teléfono (Pocket PC Phone Edition), y Windows Mobile 6
Classic para PDAs sin telefonía IP.2 Utiliza Windows CE 5.2 y ligado
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
fuertemente a los productos: Windows Vista, Windows Live, Microsoft Office y
Exchange 2007.
Aug 11, 2007
Blackberry OS 7.0
Fue lanzado oficialmente en agosto de 2011, haciendo su aparición en el
BlackBerry Bold (9900/9930), BlackBerry Torch (9810/9850/9860), y el
BlackBerry Curve (9350/9360/9370/9380).
Nov 5, 2007
Google anuncia desarrollo de Android OS.
Android es 100% libre y de codigo abierto, totalmente opuesto a Apple iOS.
Su desarrollo se había mantenido en secreto hasta este día.
Jul 11, 2008
iPhone OS 2.0
App Store y del iPhone 3G, no hubo más funcionalidades introducidas, solo se
facilitaba el acceso a aplicaciones de terceros. Número de usuarios de base
era amplio y la cantidad de descargas no paró de crecer. Menos de seis
meses después, el App Store ya había alcanzado las 500 millones de
descargas y cuatro meses más tarde se duplicó esa cifra, de modo que el
Aug 4, 2008
Blackberry OS 5.0
Fue lanzado en el BlackBerry Bold 9000 8520 y llegó a los demás
smartphones BlackBerry un corto tiempo después de su lanzamiento
Sep 1, 2008
Android 1.0
Es lanzado el HTC Dream en los Estados Unidos y partes de Europa, es el
primer smartphone con el Sistema Operativo Android.
Apr 1, 2009
Android 1.5 Cupcake
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Primera gran actualización para Android, soporta widgets y folders en la
pantalla de inicio.
Jun 17, 2009
iPhone OS 3.0
Las características más destacables de esa versión fueron las notificaciones
push para advertir al usuario de los procesos que ocurrían en las apps
mientras estas estaban cerradas, y la liberación de un SDK con más de 1000
APIs que los desarrolladores podían aprovechar en sus propios proyectos.
Sep 12, 2009
Android 1.6 Donut.
Se mejora el Android Market y la búsqueda universal, con soporte nativo para
Sprint y Verizon. Soporta resoluciones de pantalla mas grande y mejor
interfaz para la cámara.
Oct 12, 2009
Android 2.0 Eclair
Se mejora el navegador web, mapas y la interfaz para el usuario. Debuta
Google Maps Navigations como herramienta GPS.
Jan 11, 2010
Blackberry OS 6
En abril de 2010, RIM anunció la versión de BlackBerry OS 6.0, que fue
lanzado en el tercer trimestre de 2010. Esta versión incluye un nuevo
navegador basado en WebKit.
Jun 12, 2010
Android 2.2 Froyo
Significante rapidez y soporte para Adobe Flash. Se lanza junto con el Google
Nexus One que realizó ventas de mas de 80,000 unidades en el primer mes.
Jun 21, 2010
iOS 4.0
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
iOS 4.0 fue lanzado al público y se puso a disposición sólo para el iPod Touch
y iPhone. iOS 4.0 fue anunciado a tener más de 1.500 nuevas APIs para
desarrolladores, con la función de multitarea muy esperado, además de la
inclusión de wallpapers y carpetas para organizar las aplicaciones.
Oct 21, 2010
Windows Phone 7
Durante el Mobile World Congress 2010 en Barcelona, Microsoft reveló
detalles de Windows Phone, mostrándolo como un nuevo sistema operativo
que incluye funciones de integración con los servicios Xbox Live y Zune. La
interfaz, conocida como "Metro", ha sido revisada en su totalidad y comparte
características visuales similares a la interfaz del dispositivo Zune HD.
Microsoft declaró que pedirá a los fabricantes que los requerimientos de
hardware sean "altos, pero justos",
Dec 12, 2010
Android 2.3 Gingerbread.
Se mejora interfaz gráfica, soporte para NFC con el que se puede compartir
sin hacer contacto con otro telefono además de crear tarjetas de credito
digitales asi como llaves.
Feb 12, 2011
Android 3.0 Honeycomb
Desarrollado especialmente para tablets. Mejora de renderización 3D y
aceleración de hardware.
May 11, 2011
Android 4.0 Ice Cream Sandwich
Versión refinada de Honeycomb, optimizando sus características para
móviles. Android Market Place rebasa en ventas a Blackberry Store.
May 25, 2011
Windows Phone 7.5
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Actualización de software para Windows Phone también conocida como
Tango, fue uno de los requisitos de Nokia en su acuerdo con Microsoft, esta
enfocada a una minimización de los requisitos del sistema operativo para
adaptarlo a terminales de menor coste. Anunciada en el MWC 2012 de
Barcelona, trae nuevas funciones pero también limitaciones para los
terminales de gama baja.
Jun 6, 2011
iOS 5.0
iOS 5 fue presentado durante la WWDC 2011. Por segunda vez, fue
abandonado el soporte para algunos dispositivos, en concreto el iPhone 3G y
el iPod Touch (2 ª generación). Dispositivos compatibles en esta versión
incluyen el iPhone 3GS en adelante, el iPod Touch (3 ª generación) en
adelante, y el iPad original en adelante.
Aug 11, 2011
Blackberry OS 7.0
Fue lanzado oficialmente en agosto de 2011, haciendo su aparición en el
BlackBerry Bold (9900/9930), BlackBerry Torch (9810/9850/9860), y el
BlackBerry Curve (9350/9360/9370/9380).
Jul 9, 2012
Android 4.1 Jelly Bean
Multiples cuentas de usuario, Google Now, Photosphere, Notificaciones
mejoradas, Configuraciones en barra de notificaciones y Widgets en pantalla
de bloqueo son algunas de las nuevas caracteristicas.
Sep 19, 2012
iOS 6
A diferencia de versiones anteriores de iOS, dos aplicaciones notables que
iOS 6 removido por defecto son Google Maps y YouTube. Se añade
integración con Facebook y se mejora "Siri" añadiendo soporte para español.
Facetime y su propia aplicación de Mapas tambien son una novedad.
Oct 29, 2012
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Windows Phone 8
Windows Phone 8 es una nueva versión del sistema operativo solo para
nuevos dispositivos. Entre las nuevas características se incluyen:
Multitarea para aplicaciones de terceros
Núcleo Windows NT para soporte de procesadores de varios núcleos
Tarjeta de memoria externa intercambiable
Uso como unidad de almacenamiento MTP
Transferencias de ficheros por Bluetooth
Cifrado de datos almacenados
Aplicaciones en código nativo
Actualizaciones directamente en el teléfono
Entre otros.
Jun 10, 2013
iOS 7
Se dio a conocer durante la conferencia de apertura del Mundial de
Desarrolladores Apple Conferencia (WWDC). Anunciado como el "mayor
cambio a iOS desde la introducción del iPhone," el cambio más notable fue
una revisión de la interfaz de usuario. En un vídeo promocional se muestra
durante la presentación, se describió la actualización como "poner orden en la
complejidad", destacando las características tales como la tipografía refinada,
nuevos iconos, y minimalismo.
Oct 31, 2013
Android 4.4 KitKat
El hecho de que muy poco ha cambiado en Android 4.4 sobre 4.3 no es una
señal de que Google está consiguiendo perezoso, pero en su lugar se
muestra lo bueno de Android es ahora. Después de años de flujo y una o dos
experimentos fallidos, el sistema operativo móvil de Google ha encontrado por
fin sus pies y se ve y se comporta mejor que nunca.
Nov 12, 2013
Blackberry OS 10
CEO Thorsten Heins anunció el lanzamiento de la versión del sistema
operativo BlackBerry 10 así como los dos dispositivos Z10 (un dispositivo con
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
pantalla táctil completa), y el Q10 (un dispositivo equipado con un teclado
físico),
Feb 10, 2014
Windows Phone 8.1
Windows Phone 8.1 forma parte de la serie de actualizaciones Blue de
Windows. En otoño de 2013 se lanzó Windows 8.1, para ordenadores, y
desde entonces se esperaba la presentación de Windows Phone 8.1, el
equivalente para teléfonos inteligentes. La nueva versión fue finalmente
confirmada el 10 de febrero de 2014, con la filtración del lanzamiento del SDK
para los desarrolladores más importantes
Sep 17, 2014
iOS 8.0
iOS 8 es el sucesor de iOS 7, compatible con estos dispositivos de iPhone:
4s, 5, 5c, 5s, 6, 6 Plus, la quinta y sexta generación del iPod Touch, el iPad 2
en adelante y todas las generaciones del iPad mini. Fue presentado el 2 de
junio de 2014 en la Conferencia Mundial de Desarrolladores.
Sep 24, 2014
BlackBerry OS 10.3
La versión 10.3.1 de BlackBerry 10 OS reúne un nuevo aspecto y
funcionamiento junto con nuevas prestaciones de productividad potentes
diseñadas para aumentar la productividad, colaboración y comunicación.
Implementó compatibilidad con apps de Android y la Amazon Appstore.
Oct 28, 2014
Android 5.0 Lollipop
Los cambios más prominentes en Lollipop incluyen una interfaz de usuario
rediseñada construida sobre un diseño de lenguaje responsivo denominado
como "Material design", así como mejoras en el sistema de notificaciones que
permiten que este sea accedido desde la pantalla de bloqueo, y mostrado
junto con otras aplicaciones como banners en la parte superior de la pantalla.
Sep 16, 2015
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
iOS 9.0
Se anunció en la Worldwide Developers Conference (WWDC) el 8 de junio de
2015 y se lanzó el 16 de septiembre de 2015 a partir de las 10:00 am (horario
de San Francisco). iOS 9 incluye optimizaciones y mejoras respecto de su
antecesor. Apple anunció el lunes 21 de septiembre de 2015 que su nuevo
sistema operativo ya había superado el 50% de adopción dentro de sus
dispositivos compatibles.
Oct 5, 2015
Android 6.0 Marshmallow
Android 6.0 Marshmallow introduce un modelo de permisos rediseñado: ahora
hay únicamente ocho categorías de permisos, y las aplicaciones ya no
conceden automáticamente todos sus permisos específicos en el momento de
la instalación. Se utiliza ahora un sistema "opt-in", en el que los usuarios
pueden conceder o denegar permisos individuales a una aplicación cuando lo
requieran, tales como el acceso a la cámara o el micrófono. Las aplicaciones
recuerdan las concesiones de permisos de cada usuario . (Historia de
Sistemas Operativos Móviles timeline., 2021)
Sistema operativo Aportes positivos Aportes negativos
Android Hoy en día uno de los
aspectos negativos de
En definitiva al ser
Android es su
desarrollado de forma
Esta basado en una fragmentación:
abierta, se trata de una
versión modificada del ventaja tanto Precisamente en la
kernel de Linux, y es el variedad de terminales
sistema operativo de para los que
esta su punto negativo;
Google, actualmente es desarrollan sus
al haber tanta
uno de los sistemas aplicaciones como para
diversidad de
operativos en alza del sus usuarios. Puedes
terminales con
mundo y se distribuye personalizar tu teléfono
diferentes
en numerosos al máximo y modificar
características, existen
dispositivos de funciones del teléfono
diferentes tipos de
diferentes marcas. simplemente instalando
pantallas, diferentes
una aplicación.
tipos de velocidades, lo
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
que significa que en
unos dispositivos
existan versiones
superiores de Android y
en otros unas versiones
mas inferiores, dando
nombre a lo que se
llama fragmentación;
esta es una de sus
incoveniencias de este
sistema operativo, que
en unos pueden
ejecutar por ejemplo
unos juegos y en otros
no.
iOS Algunos aspectos El sistema de Apple es
positivos según el bastante mas cerrado
punto de vista: Buen que el de sus
Esta basado en una diseño, funcionalidad, competidores, siendo
variante del kernel de facilidad mas restrictivo en las
MAC OS X y es la publicaciones de las
de uso y una variedad aplicaciones, y
apuesta de la marca de aplicaciones y
Apple para sus manteniendo un control
juegos enorme lo mucho mas exhaustivo
dispositivos IPhone. convierten en un de lo que se publica, lo
referente (como que puede ser tanto
ventajas podemos decir una ventaja para
que posee una de las algunos como una
tiendas de aplicaciones desventaja para otros,
y juegos mas grande no permitiendo ninguna
del mundo (App Store)). modificación del
Su perfecta integración sistema tal y como lo
con servicios en la tienen creado. Además,
nube y equipos de si quieres disfrutar de
sobremesa,
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
especialmente Mac, es un iPhone, sólo te
otro de sus puntos queda desembolsar un
fuertes. Tu correo, tus precio bastante alto
redes sociales…
podrás estar siempre puesto que sólo hay un
fabricante y un modelo.
conectado.
Windows Phone El sistema gráfico es La variedad de móviles
sencillo y muy con Windows Phone no
agradable, aunque es tan amplia como la
Anteriormente llamado tenemos que que ofrecen
Windows Mobile es un acostumbrarnos, y mas
nos vale, pues el nuevo Android o Symbian,
sistema operativo móvil aunque está en
compacto desarrollado windows 8 tiene un
parecido enorme con crecimiento.
por Microsoft, y
diseñado para su uso este sistema. Por otra parte, al llegar
en teléfonos Un diseño moderno, algo más tarde a la
inteligentes práctico, atractivo y con primera división del
(Smartphones) y otros características firmamento móvil, la
dispositivos móviles. innovadoras han cantidad de
sorprendido ya a más aplicaciones
de uno. Windows disponibles en estos
Phone cuenta con una momentos es baja,
gran inversión y se ha aunque están
diseñado para competir facilitando el trabajo a
con los más grandes: el los desarrolladores
resultado es un sistema para llenar el hueco
moderno y capaz. rápidamente.
Blackberry Principalmente los Ha quedado atrás al no
BlackBerry se utilizan poder competir con las
en el mundo tiendas de aplicaciones
Es un sistema operativo empresarial donde de los diferentes
multitarea (OS) para el están fuertemente markets de la
BlackBerry, lo que arraigados, ya que competencia; aunque
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
permite un uso permite la en entornos
intensivo de los sincronización empresariales sigue
dispositivos de entrada. mejorada con servicios siendo el rey,
de servidores de resistiendo a dejar esta
empresas como cuota de mercado que
Microsoft Exchange o a sus competidores se
Lotus Notes. Perfecto les resiste.
para el uso de correo
electrónico, Blackberry
destaca también por los No se puede comparar
aspectos de seguridad su tienda de
y por su principal seña aplicaciones con las de
de identidad es el Android o iTunes.
teclado QWERTY que Tampoco existen tantas
en practicamente todos posibilidades de
los teléfonos del elección en cuanto a
fabricante esta dispositivos y el
presente, es amplio y
completo, permitiendo potencial multimedia no
escribir con bastante es su fuerte principal
comodidad y rapidez
(los demás fabricantes
tomaron nota y sacaron
teléfonos con estas
características).
Symbian Symbian ha sido Unos de los sistemas
siempre fiable e operativos mas fiables
innovador. Con fuerte del mundo, aunque en
Nokia es una de las énfasis en las funciones la actualidad ha perdido
marcas más conocidas básicas de telefonía y mucho protagonismo
del mundo y seguro multimedia de sus con la llegada de
que alguna vez has dispositivos, también iPhone y Android, sobre
tenido un movil de esta cuenta con un amplio
mercado de todo en los
marca en las manos smartphones punteros.
aplicaciones externas y
con una tremenda Por no tener esa
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
variedad de dispositivos variedad de
disponibles. aplicaciones de los que
atesoran otras marcas,
pero aun asi es un
Se trata de una sistema operativo que
excelente opción para no defrauda.
conseguir terminales de
gama media y
baja, debido a su
fiabilidad, una cantidad
razonable de buenas
aplicaciones,
posibilidades
multimedia y al precio
asequible de muchos
de sus modelos.
3.3 Actividades de apropiación del conocimiento (Conceptualización y
Teorización).
3.3.1 Consulte en internet y libros recomendados en la bibliografía y describa
evolución histórica, funciones, clases y precios actuales, para los siguientes partes:
1. Tarjeta Madre
2. Microprocesador
3. BIOS
4. Disco Duro
5. Unidades Ópticas
6. Memoria RAM
7. Monitor
8. Fuentes de Poder
9. Impresoras
10. Teclado
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
11. Mouse
12. Tarjetas (Video, Sonido, red)
R=/ Tarjeta madre
Evolución histórica
Las placas base o Madre han evolucionado mucho en casi dos décadas, pero
su forma es básicamente la misma, tenemos el ejemplo de las placas que
soportaban a los poderosos 286 (en ese entonces) que en general tenían los
mismos componentes que las placas actuales con algunas "grandes
diferencias" que apuntan a la velocidad, es decir, antiguamente existían los
ranuras (slots) ISA los cuales todavía se mantienen vigentes, que permitían la
incorporación de componentes tales como las placas multifunción (que
conectaban el disco duro, los puertos de impresión LPT y los puertos COM),
estos ranuras no fueron cambiados por las nuevas placas, pero se insertaron
otros ranuras más pequeños y con una mayor velocidad, el ejemplo más claro
de esto fue la incorporación del ranura PCI donde se conectan las placas de
video, red, modem y sonido en los tiempos de los primeros PENTIUM de la
empresa INTEL, luego a partir de los Pentium II se incorpora la ranura o
ranura AGP que está dirigida solamente a las tarjetas de video las cuales
requieren de una mayor velocidad. También aparece el puerto USB para
conectar cualquier tipo de dispositivo.
Los cambios anteriores también son aplicables en las ranuras de memoria, en
donde se ha dado paso a gran capacidad de Memoria RAM, requiriendo cada
vez más velocidad "interna", creando ranuras más grandes como las
memorias DIMM.
Otro componente que ha evolucionado rápidamente es el Chipset (conjunto
de chip), los cuales se encargan de crear prácticamente toda la interacción
entre los componentes internos, cabe destacar que estos chips son de vital
importancia por lo anterior y paradójicamente es el elemento más "olvidado"
de la Placa Madre, de este elemento depende la velocidad interna del
computador, por tanto las compañías fabricantes se han preocupado de
renovar estos Chipset ya que la velocidad es el objetivo primordial.
La primera placa base (MYCRO 1) surgió en 1975, en una empresa llamada
Norsk Data Insdustri.
La segunda placa base (KIM - 1) surgió en 1976, ideada por la empresa MOS
Technology.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
La tercera placa base (XT) surgió en 1981, lanzada al mercado por la
empresa IBM.
La cuarta placa base (AT) se basa en el estandar IBM PC-AT, que fue
estándar absoluto durante años, desde los primeros microprocesadores Intel
80286 hasta los primeros Pentium II y equivalentes incluidos.
El último formato de placa base (ATX), fue promovido por INTEL e introducido
al mercado en 1996. (Evolución de la placa base, 2021)
Funciones
Funciona como centro de componentes
Una de las funciones de la tarjeta madre es servir como la base sobre la cual
se construyen los componentes de una computadora. La tarjeta madre es, en
esencia, un centro que alberga una serie de componentes esenciales, como
la Unidad Central de Procesamiento (CPU), la memoria del sistema (RAM) y
la tarjeta gráfica.
Contiene los circuitos de la computadora
La tarjeta madre es la placa de circuito principal de la computadora, que
contiene todos los circuitos y componentes básicos que se requieren para que
la computadora funcione. Tiene vías eléctricas llamadas buses, que permiten
que los datos se transmitan a los diferentes componentes de la computadora,
así como entre ellos.
Permite el tráfico de datos
La tarjeta madre sirve como un centro de comunicaciones para todos los
componentes que se adjuntan directa o indirectamente. Es responsable de
gestionar el tráfico de información dentro del sistema informático, lo que hace
mediante el chipset de la placa base. La función del conjunto de chips de la
placa base es dirigir el flujo de datos que los componentes de la computadora
requieren o adquieren.
Contiene la BIOS
La tarjeta madre tiene una memoria de solo lectura (ROM) integrada, que está
separada de la memoria RAM de la PC y que contiene el sistema básico de
entrada/salida (BIOS) de la computadora. Una función clave de la BIOS es
administrar el proceso de inicio cuando enciende su computadora y carga su
sistema operativo.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Permite conectar periféricos
La placa base permite el uso de componentes y dispositivos externos, lo que
aumenta enormemente la versatilidad de un sistema informático. Estos
incluyen impresoras, dispositivos de teclado, conectores de audio, discos
duros externos y controladores de juegos. Estos periféricos se pueden
conectar a la computadora mediante puertos externos, enchufes y
conectores,que están integrados en la placa madre. (¿Cuál es la función de la
Tarjeta Madre? - CAVSI, 2021)
Clases
Placa base AT
Una placa base AT tiene unas dimensiones del orden de unos cien
milímetros, lo suficientemente grande como para que no pueda caber en mini
escritorios, estas dimensiones dificultan la instalación de las nuevas unidades.
El concepto de conectores de seis clavijas nació para funcionar como los
conectores de alimentación para este tipo de placas base. Producida a
mediados de los 80, esta placa base duró un buen tiempo desde el Pentium
p5 hasta los tiempos en que se comenzó a usar el Pentium 2.
Placa base ATX
Popularmente conocidas como ATX, son las placas base producidas por Intel
a mediados de los 90 como una mejora de las placas madre que funcionaban
anteriormente, como AT. Este tipo de placas madre se diferencian de sus
homólogos AT en la forma en que estas placas permiten el intercambio de las
partes conectadas. Además, las dimensiones de esta placa base son más
pequeñas que las de la placa base AT y, por lo tanto, también se permite el
lugar adecuado para las bahías de [Link]én se hicieron algunos
cambios en el sistema de conectores de la placa. Las placas base AT tenían
un conector de teclado y en las placas posteriores se proporcionaron ranuras
adicionales para varios complementos. Su tamaño es de 305 mm × 244 mm.
Placa madre LPX
Las placas base de extensión de perfil bajo, más conocidas como placas
madre LPX, se crearon después de las AT en los años 90. La principal
diferencia entre estas placas y las anteriores es que los puertos de entrada y
salida de estas están presentes en la parte posterior del sistema. Este
concepto demostró ser beneficioso y también fue adoptado por los modelos
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
AT en sus versiones más nuevas. El uso de una tarjeta vertical también se
hizo para la colocación de algunas ranuras más. Pero estas tarjetas de
expansión también plantearon el problema de que el flujo de aire no era
adecuado. Además, algunas placas LPX de baja calidad ni siquiera tenían
una ranura AGP real y simplemente se conectaban al bus PCI. Todos estos
aspectos desfavorables llevaron a la extinción de este sistema de placa base
y fue sucedido por el NLX.
Placa base BTX
BTX fue desarrollado para reducir o evitar algunos de los problemas que
surgieron al usar las últimas tecnologías. Las nuevas tecnologías a menudo
demandan más potencia y también liberan más calor cuando se implementan
en placas base de acuerdo con la especificación ATX de alrededor de 1996.
El estándar ATX y el estándar BTX, ambos fueron propuestos por Intel. El
desarrollo posterior de los productos de venta minorista BTX fue cancelado en
septiembre de 2006 por Intel luego de aceptar la decisión de Intel de
enfocarse nuevamente en las CPU de bajo consumo después de sufrir
problemas como el escalado y la térmica con el Pentium 4.
El diseño BTX proporciona un camino más recto del flujo de aire con menos
dificultades, lo que se traduce en mejores capacidades generales de
enfriamiento. En lugar de un ventilador de refrigeración dedicado, se monta un
gran ventilador de caja de 12 cm, que extrae su aire directamente del exterior
del PCy luego enfría la CPU a través de un conducto de aire. Otra
característica de BTX es el montaje vertical de la placa base en el lado
izquierdo. Este tipo de característica hace que el disipador de calor de la
tarjeta gráfica o el ventilador estén orientados hacia arriba, en lugar de en la
dirección de la tarjeta de expansión adyacente.
Placa base Pico BTX
Pico BTX es un factor de forma de placa base destinado a la fabricación de
estándares BTX de tamaño aún más pequeño. Esto es más pequeño que
muchas placas base de tamaño “micro” actual, de ahí que se haya usado el
nombre “Pico”. Estas placas base comparten una mitad superior común con
los otros tamaños de la línea BTX, pero solo admiten una o dos ranuras de
expansión, diseñadas para aplicaciones de tarjetas de media altura o de
tarjetas verticales.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
En las etapas iniciales de uso, las placas base ATX y BTX eran tan análogas
que era posible mover una placa madre BTX a una caja ATX y viceversa. En
etapas posteriores, el factor de forma BTX tuvo una gran modificación que se
realizó al convertirla en una imagen de espejo del estándar ATX. Las
unidades de fuente de alimentación BTX se pueden intercambiar con las
últimas unidades ATX12V, pero no con las fuentes de alimentación ATX más
antiguas que no tienen el conector adicional de 4 clavijas de 12V.
Placas base Micro ATX
MicroATX es un tipo de factor de forma para placas base de PC pequeño y
estándar. El tamaño máximo de una placa MicroATX es de 244 mm × 244
mm, mientras que el estándar ATX es un 25% más grande con unas
dimensiones de 305 mm × 244 mm. Las placas base MicroATX disponibles
actualmente son compatibles con procesadores de Intel o de AMD, pero por
ahora no existe ninguna para cualquier otra arquitectura que no sea x86 o
x86-64.
Placas base Mini ITX
Mini-ITX es un factor de forma de placa base de baja potencia de 17 × 17 cm.
Fue diseñado por VIA Technologies en el año 2001. Se utilizan principalmente
en sistemas informáticos de factor de forma pequeño (SFF). Las placas Mini-
ITX también se pueden enfriar fácilmente debido a su arquitectura de bajo
consumo de energía. Dicha arquitectura los hace ampliamente útiles para
sistemas de PC de cine en casa o sistemas donde el ruido puede disminuir la
calidad o el valor de la experiencia cinematográfica. Los cuatro orificios de
montaje en una placa Mini-ITX se alinean con los cuatro orificios en las placas
base de especificación ATX, y las ubicaciones de la placa posterior y la ranura
de expansión son las mismas. Por lo tanto, las placas Mini-ITX se pueden
usar en lugares que están diseñados para ATX, micro-ATX y otras variantes
ATX, si es necesario. El factor de forma Mini-ITX tiene ubicación para una
ranura de expansión, perteneciente a una ranura PCI estándar de 33 MHz 5V
y 32 bits. Algunas placas basadas en procesadores que no son x86 tienen
una ranura PCI de 3.3V, y las placas Mini-ITX 2.0 (2008) tienen una ranura
PCI-express × 16. (▷ Tipos de placas base: AT, ATX, LPX, BTX, Micro ATX
y Mini ITX, 2021)
Microprocesador
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Evolución histórica
Hasta los primeros años de la década de 1970 los diferentes componentes
electrónicos que formaban un procesador no podían ser un único circuito
integrado, era necesario utilizar dos o tres "chips" para hacer una CPU (uno
era el "ALU" - Arithmetical Logic Unit, el otro la " control Unit", el otro el "
Register Bank", etc.). En 1971 la compañía Intel consiguió por primera vez
poner todos los transistores que constituían un procesador sobre un único
circuito integrado, el 4004, nacía el microprocesador.
Seguidamente se expone una lista ordenada cronológicamente de los
microprocesadores más populares que fueron surgiendo. En la URSS se
realizaron otros sistemas que dieron lugar a la serie microprocesador Elbrus.
1971: El Intel 4004
El 4004 fue el primer microprocesador del mundo, creado en un simple chip y
desarrollado por Intel. Era un CPU de 4 bits y también fue el primero
disponible comercialmente. Este desarrollo impulsó la calculadora de Busicom
e inició el camino para dotar de «inteligencia» a objetos inanimados y
asimismo, a la computadora personal.
1972: El Intel 8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal
Corporation para usarlo en su terminal programable Datapoint 2200, pero
debido a que Intel terminó el proyecto tarde y a que no cumplía con las
expectativas de Computer Terminal Corporation, finalmente no fue usado en
el Datapoint. Posteriormente Computer Terminal Corporation e Intel acordaron
que el i8008 pudiera ser vendido a otros clientes.
1974: El SC/MP
El SC/MP desarrollado por National Semiconductor, fue uno de los primeros
microprocesadores, y estuvo disponible desde principio de 1974. El nombre
SC/MP (popularmente conocido como «Scamp») es el acrónimo de Simple
Cost-effective Micro Processor (Microprocesador simple y rentable). Presenta
un bus de direcciones de 16 bits y un bus de datos de 8 bits. Una
característica, avanzada para su tiempo, es la capacidad de liberar los buses
a fin de que puedan ser compartidos por varios procesadores. Este
microprocesador fue muy utilizado, por su bajo costo, y provisto en kits, para
propósitos educativos, de investigación y para el desarrollo de controladores
industriales diversos.
1974: El Intel 8080
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
EL 8080 se convirtió en la CPU de la primera computadora personal, la Altair
8800 de MITS, según se alega, nombrada así por un destino de la Nave
Espacial «Starship» del programa de televisión Viaje a las Estrellas, y el
IMSAI 8080, formando la base para las máquinas que ejecutaban el sistema
operativo CP/M-80. Los fanáticos de las computadoras podían comprar un
equipo Altair por un precio (en aquel momento) de 395 USD. En un periodo de
pocos meses, se vendieron decenas de miles de estos PC.
1975: Motorola 6800
Se fabrica, por parte de Motorola, el Motorola MC6800, más conocido como
6800. Su nombre proviene de que contenía aproximadamente 6800
transistores.4 Fue lanzado al mercado poco después del Intel 8080.5 Varios
de los primeras microcomputadoras de los años 1970 usaron el 6800 como
procesador. Entre ellas se encuentran la SWTPC 6800, que fue la primera en
usarlo, y la muy conocida Altair 680. Este microprocesador se utilizó
profusamente como parte de un kit para el desarrollo de sistemas
controladores en la industria. Partiendo del 6800 se crearon varios
procesadores derivados, siendo uno de los más potentes el Motorola 6809
1976: El Z80
La compañía Zilog Inc. crea el Zilog Z80. Es un microprocesador de 8 bits
construido en tecnología NMOS, y fue basado en el Intel 8080. Básicamente
es una ampliación de este, con lo que admite todas sus instrucciones. Un año
después sale al mercado el primer computador que hace uso del Z80, el
Tandy TRS-80 Model 1 provisto de un Z80 a 1,77 MHz y 4 KB de RAM. Es
uno de los procesadores de más éxito del mercado, del cual se han producido
numerosas versiones clónicas, y sigue siendo usado de forma extensiva en la
actualidad en multitud de sistemas embebidos. La compañía Zilog fue
fundada 1974 por Federico Faggin, quien fue diseñador jefe del
microprocesador Intel 4004 y posteriormente del Intel 8080.
1978: Los Intel 8086 y 8088
Una venta realizada por Intel a la nueva división de computadoras personales
de IBM, hizo que las PC de IBM dieran un gran golpe comercial con el nuevo
producto con el 8088, el llamado IBM PC. El éxito del 8088 propulsó a Intel a
la lista de las 500 mejores compañías, en la prestigiosa revista Fortune, y la
misma nombró la empresa como uno de Los triunfos comerciales de los
sesenta.
1982: El Intel 80286
El 80286, popularmente conocido como 286, fue el primer procesador de Intel
que podría ejecutar todo el software escrito para su predecesor. Esta
compatibilidad del software sigue siendo un sello de la familia de
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
microprocesadores de Intel. Luego de seis años de su introducción, había un
estimado de 15 millones de PC basadas en el 286, instaladas alrededor del
mundo.
1985: El Intel 80386
Este procesador Intel, popularmente llamado 386, se integró con 275 000
transistores, más de 100 veces tantos como en el original 4004. El 386 añadió
una arquitectura de 32 bits, con capacidad para multitarea y una unidad de
traslación de páginas, lo que hizo mucho más sencillo implementar sistemas
operativos que usaran memoria virtual.
1985: El VAX 78032
El microprocesador VAX 78032 (también conocido como DC333), es de único
chip y de 32 bits, y fue desarrollado y fabricado por Digital Equipment
Corporation (DEC); instalado en los equipos MicroVAX II, en conjunto con su
chip coprocesador de coma flotante separado, el 78132, tenían una potencia
cercana al 90 % de la que podía entregar el minicomputador VAX 11/780 que
fuera presentado en 1977. Este microprocesador contenía 125 000
transistores, fue fabricado con la tecnología ZMOS de DEC. Los sistemas
VAX y los basados en este procesador fueron los preferidos por la comunidad
científica y de ingeniería durante la década de 1980.
1989: El Intel 80486
La generación 486 realmente significó contar con una computadora personal
de prestaciones avanzadas, entre ellas, un conjunto de instrucciones
optimizado, una unidad de coma flotante o FPU, una unidad de interfaz de
bus mejorada y una memoria caché unificada, todo ello integrado en el propio
chip del microprocesador. Estas mejoras hicieron que los i486 fueran el doble
de rápidos que el par i386-i387 operando a la misma frecuencia de reloj. El
procesador Intel 486 fue el primero en ofrecer un coprocesador matemático o
FPU integrado; con él que se aceleraron notablemente las operaciones de
cálculo. Usando una unidad FPU las operaciones matemáticas más complejas
son realizadas por el coprocesador de manera prácticamente independiente a
la función del procesador principal.
1991: El AMD AMx86
Procesadores fabricados por AMD 100 % compatible con los códigos de Intel
de ese momento. Llamados «clones» de Intel, llegaron incluso a superar la
frecuencia de reloj de los procesadores de Intel y a precios significativamente
menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586.
1993: PowerPC 601
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Es un procesador de tecnología RISC de 32 bits, en 50 y 66 MHz. En su
diseño utilizaron la interfaz de bus del Motorola 88110. En 1991, IBM busca
una alianza con Apple y Motorola para impulsar la creación de este
microprocesador, surge la alianza AIM (Apple, IBM y Motorola) cuyo objetivo
fue quitar el dominio que Microsoft e Intel tenían en sistemas basados en los
80386 y 80486. PowerPC (abreviada PPC o MPC) es el nombre original de la
familia de procesadores de arquitectura de tipo RISC, que fue desarrollada
por la alianza AIM. Los procesadores de esta familia son utilizados
principalmente en computadores Macintosh de Apple Computer y su alto
rendimiento se debe fuertemente a su arquitectura tipo RISC.
1993: El Intel Pentium
El microprocesador de Pentium poseía una arquitectura capaz de ejecutar dos
operaciones a la vez, gracias a sus dos tuberías de datos de 32 bits cada uno,
uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además,
estaba dotado de un bus de datos de 64 bits, y permitía un acceso a memoria
de 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32
bits para las operaciones internas, y los registros también eran de 32 bits).
Las versiones que incluían instrucciones MMX no solo brindaban al usuario un
más eficiente manejo de aplicaciones multimedia, sino que también se
ofrecían en velocidades de hasta 233 MHz. Se incluyó una versión de 200
MHz y la más básica trabajaba a alrededor de 166 MHz de frecuencia de reloj.
El nombre Pentium, se mencionó en las historietas y en charlas de la
televisión a diario, en realidad se volvió una palabra muy popular poco
después de su introducción.
1994: EL PowerPC 620
En este año IBM y Motorola desarrollan el primer prototipo del procesador
PowerPC de 64 bit,6 la implementación más avanzada de la arquitectura
PowerPC, que estuvo disponible al año próximo. El 620 fue diseñado para su
utilización en servidores, y especialmente optimizado para usarlo en
configuraciones de cuatro y hasta ocho procesadores en servidores de
aplicaciones de base de datos y vídeo. Este procesador incorpora siete
millones de transistores y corre a 133 MHz. Es ofrecido como un puente de
migración para aquellos usuarios que quieren utilizar aplicaciones de 64 bits,
sin tener que renunciar a ejecutar aplicaciones de 32 bits.
1995: EL Intel Pentium Pro
Lanzado al mercado en otoño de 1995, el procesador Pentium Pro
(profesional) se diseñó con una arquitectura de 32 bits. Se usó en servidores
y los programas y aplicaciones para estaciones de trabajo (de redes)
impulsaron rápidamente su integración en las computadoras. El rendimiento
del código de 32 bits era excelente, pero el Pentium Pro a menudo era más
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
lento que un Pentium cuando ejecutaba código o sistemas operativos de 16
bits. El procesador Pentium Pro estaba compuesto por alrededor de 5'5
millones de transistores.
1996: El AMD K5
Habiendo abandonado los clones, AMD fabricada con tecnologías análogas a
Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del
Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la
arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente
un procesador RISC con una Unidad x86- decodificadora, transforma todos
los comandos x86 (de la aplicación en curso) en comandos RISC. Este
principio se usa hasta hoy en todas las CPU x86. En la mayoría de los
aspectos era superior el K5 al Pentium, incluso de inferior precio, sin embargo
AMD tenía poca experiencia en el desarrollo de microprocesadores y los
diferentes hitos de producción marcados se fueron superando con poco éxito,
se retrasó 1 año de su salida al mercado, a razón de ello sus frecuencias de
trabajo eran inferiores a las de la competencia, y por tanto, los fabricantes de
PC dieron por sentado que era inferior.
1996: Los AMD K6 y AMD K6-2
Con el K6, AMD no solo consiguió hacerle seriamente la competencia a los
Pentium MMX de Intel, sino que además amargó lo que de otra forma hubiese
sido un plácido dominio del mercado, ofreciendo un procesador casi a la
altura del Pentium II pero por un precio muy inferior. En cálculos en coma
flotante, el K6 también quedó por debajo del Pentium II, pero por encima del
Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166
hasta los más de 500 MHz y con el juego de instrucciones MMX, que ya se
han convertido en estándares.
Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros,
para seguir compitiendo con los Pentium II, siendo este último superior en
tareas de coma flotante, pero inferior en tareas de uso general. Se introduce
un juego de instrucciones SIMD denominado 3DNow!
1997: El Intel Pentium II
Un procesador de 7'5 millones de transistores, se busca entre los cambios
fundamentales con respecto a su predecesor, mejorar el rendimiento en la
ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y
eliminar la memoria caché de segundo nivel del núcleo del procesador,
colocándola en una tarjeta de circuito impreso junto a este. Gracias al nuevo
diseño de este procesador, los usuarios de PC pueden capturar, revisar y
compartir fotografías digitales con amigos y familia vía Internet; revisar y
agregar texto, música y otros; con una línea telefónica; el enviar vídeo a
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
través de las líneas normales del teléfono mediante Internet se convierte en
algo cotidiano.
1998: El Intel Pentium II Xeon
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos
de rendimiento en computadoras de medio-rango, servidores más potentes y
estaciones de trabajo (workstations). Consistente con la estrategia de Intel
para diseñar productos de procesadores con el objetivo de llenar segmentos
de los mercados específicos, el procesador Pentium II Xeon ofrece
innovaciones técnicas diseñadas para las estaciones de trabajo y servidores
que utilizan aplicaciones comerciales exigentes, como servicios de Internet,
almacenamiento de datos corporativos, creaciones digitales y otros. Pueden
configurarse sistemas basados en este procesador para integrar de cuatro u
ocho procesadores trabajando en paralelo, también más allá de esa cantidad.
1999: El Intel Celeron
Continuando la estrategia, Intel, en el desarrollo de procesadores para el
segmento de mercados específicos, el procesador Celeron es el nombre que
lleva la línea de bajo costo de Intel. El objetivo fue poder, mediante esta
segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor
rendimiento y precio. Se diseña para añadir valor al segmento del mercado de
los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y
entregó un rendimiento destacado para usos como juegos y el software
educativo.
1999: El AMD Athlon K7 (Classic y Thunderbird)
Procesador totalmente compatible con la arquitectura x86. Internamente el
Athlon es un rediseño de su antecesor, pero se le mejoró substancialmente el
sistema de coma flotante (ahora con tres unidades de coma flotante que
pueden trabajar simultáneamente) y se le incrementó la memoria caché de
primer nivel (L1) a 128 KB (64 Kb para datos y 64 Kb para instrucciones).
Además incluye 512 Kb de caché de segundo nivel (L2). El resultado fue el
procesador x86 más potente del momento.
El procesador Athlon con núcleo Thunderbird apareció como la evolución del
Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura
x86 y usa el bus EV6. El proceso de fabricación usado para todos estos
microprocesadores es de 180 nanómetros. El Athlon Thunderbird consolidó a
AMD como la segunda mayor compañía de fabricación de microprocesadores,
ya que gracias a su excelente rendimiento (superando siempre al Pentium III y
a los primeros Pentium IV de Intel a la misma frecuencia de reloj) y bajo
precio, la hicieron muy popular tanto entre los entendidos como en los
iniciados en la informática.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
1999: El Intel Pentium III
El procesador Pentium III ofrece 70 nuevas instrucciones Internet Streaming,
las extensiones de SIMD que refuerzan dramáticamente el rendimiento con
imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y
rendimiento en aplicaciones de reconocimiento de voz. Fue diseñado para
reforzar el área del rendimiento en el Internet, le permite a los usuarios hacer
cosas, tales como, navegar a través de páginas pesadas (con muchos
gráficos), tiendas virtuales y transmitir archivos video de alta calidad. El
procesador se integra con 9,5 millones de transistores, y se introdujo usando
en él tecnología 250 nanómetros.
1999: El Intel Pentium III Xeon
El procesador Pentium III Xeon amplía las fortalezas de Intel en cuanto a las
estaciones de trabajo (workstation) y segmentos de mercado de servidores, y
añade una actuación mejorada en las aplicaciones del comercio electrónico e
informática comercial avanzada. Los procesadores incorporan mejoras que
refuerzan el procesamiento multimedia, particularmente las aplicaciones de
vídeo. La tecnología del procesador III Xeon acelera la transmisión de
información a través del bus del sistema al procesador, mejorando el
rendimiento significativamente. Se diseña pensando principalmente en los
sistemas con configuraciones de multiprocesador.
2000: EL Intel Pentium 4
Este es un microprocesador de séptima generación basado en la arquitectura
x86 y fabricado por Intel. Es el primero con un diseño completamente nuevo
desde el Pentium Pro. Se estrenó la arquitectura NetBurst, la cual no daba
mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento
de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y
una mejora en las instrucciones SSE.
2001: El AMD Athlon XP
Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el
Athlon Thunderbird no estaba a su nivel. Además no era práctico para el
overclocking, entonces para seguir estando a la cabeza en cuanto a
rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo,
y sacó el Athlon XP. Este compatibilizaba las instrucciones SSE y las 3DNow!
Entre las mejoras respecto al Thunderbird se puede mencionar la
prerrecuperación de datos por hardware, conocida en inglés como prefetch, y
el aumento de las entradas TLB, de 24 a 32.
2004: El Intel Pentium 4 (Prescott)
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium
4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de
fabricación de 90 nm y luego se cambió a 65 nm. Su diferencia con los
anteriores es que estos poseen 1 MiB o 2 MiB de caché L2 y 16 Kb de caché
L1 (el doble que los Northwood), prevención de ejecución, SpeedStep, C1E
State, un HyperThreading mejorado, instrucciones SSE3, manejo de
instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T
por Intel, sin embargo por graves problemas de temperatura y consumo,
resultaron un fracaso frente a los Athlon 64.
2004: El AMD Athlon 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que
implementa el conjunto de instrucciones AMD64, que fueron introducidas con
el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el
propio circuito integrado del microprocesador y otras mejoras de arquitectura
que le dan un mejor rendimiento que los anteriores Athlon y que el Athlon XP
funcionando a la misma velocidad, incluso ejecutando código heredado de 32
bits. El Athlon 64 también presenta una tecnología de reducción de la
velocidad del procesador llamada Cool'n'Quiet,: cuando el usuario está
ejecutando aplicaciones que requieren poco uso del procesador, baja la
velocidad del mismo y su tensión se reduce.
2006: El Intel Core Duo
Intel lanzó esta gama de procesadores de doble núcleo y CPUs 2x2 MCM
(módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-
64, basado en la nueva arquitectura Core de Intel. La microarquitectura Core
regresó a velocidades de CPU bajas y mejoró el uso del procesador de
ambos ciclos de velocidad y energía comparados con anteriores NetBurst de
los CPU Pentium 4/D2. La microarquitectura Core provee etapas de
decodificación, unidades de ejecución, caché y buses más eficientes,
reduciendo el consumo de energía de CPU Core 2, mientras se incrementa la
capacidad de procesamiento. Los CPU de Intel han variado muy bruscamente
en consumo de energía de acuerdo a velocidad de procesador, arquitectura y
procesos de semiconductor, mostrado en las tablas de disipación de energía
del CPU. Esta gama de procesadores fueron fabricados de 65 a 45
nanómetros.
2007: El AMD Phenom
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera
generación de procesadores de tres y cuatro núcleos basados en la
microarquitectura K10. Como característica común todos los Phenom tienen
tecnología de 65 nm lograda a través de tecnología de fabricación Silicon on
insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores
Phenom están diseñados para facilitar el uso inteligente de energía y recursos
del sistema, listos para la virtualización, generando un óptimo rendimiento por
vatio. Todas las CPU Phenom poseen características tales como controlador
de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma
flotante de 128 bits, para incrementar la velocidad y el rendimiento de los
cálculos de coma flotante. La arquitectura Direct Connect asegura que los
cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria,
logrando un ancho de banda de 16 Gb/s para intercomunicación de los
núcleos del microprocesador y la tecnología HyperTransport, de manera que
las escalas de rendimiento mejoren con el número de núcleos. Tiene caché
L3 compartida para un acceso más rápido a los datos (y así no depende tanto
del tiempo de latencia de la RAM), además de compatibilidad de
infraestructura de los zócalos AM2, AM2+ y AM3 para permitir un camino de
actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el
rendimiento de la serie Core 2 Duo.
2008: El Intel Core i7 Nehalem
Intel Core i7 es una familia de procesadores de cuatro núcleos de la
arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan
la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core
2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y
sustituido a su vez en i7, i5 e i3 (zócalo 1156) por el DMI eliminado el
northBrige e implementando puertos PCI Express directamente. Memoria de
tres canales (ancho de datos de 192 bits): cada canal puede soportar una o
dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen
cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMM deben
ser instaladas en grupos de tres, no dos. El Hyperthreading fue
reimplementado creando núcleos lógicos. Está fabricado a arquitecturas de 45
nm y 32 nm y posee 731 millones de transistores su versión más potente. Se
volvió a usar frecuencias altas, aunque a contrapartida los consumos se
dispararon.
2008: Los AMD Phenom II y Athlon II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o
CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom
original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a
los 45 nm, es que permitió aumentar la cantidad de caché L3. De hecho, esta
se incrementó de una manera generosa, pasando de los 2 MiB del Phenom
original a 6 [Link] ellos, el Amd Phenom II X2 BE 555 de doble núcleo
surge como el procesador binúcleo del mercado. También se lanzan tres
Athlon II con solo Caché L2, pero con buena relación precio/rendimiento. El
Amd Athlon II X4 630 corre a 2,8 GHz. El Amd Athlon II X4 635 continua la
misma lí[Link] también lanza un triple núcleo, llamado Athlon II X3 440, así
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
como un doble núcleo Athlon II X2 255. También sale el Phenom X4 995, de
cuatro núcleos, que corre a más de 3,2 GHz. También AMD lanza la familia
Thurban con seis núcleos físicos dentro del encapsulado
2011: El Intel Core Sandy Bridge
Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e
Intel Core i7 serie 2000 y Pentium [Link] lanzó sus procesadores que se
conocen con el nombre en clave Sandy Bridge. Estos procesadores Intel Core
que no tienen sustanciales cambios en arquitectura respecto a nehalem, pero
si los necesarios para hacerlos más eficientes y rápidos que los modelos
anteriores. Es la segunda generación de los Intel Core con nuevas
instrucciones de 256 bits, duplicando el rendimiento, mejorando el rendimiento
en 3D y todo lo que se relacione con operación en multimedia. Llegaron la
primera semana de enero del 2011. Incluye nuevo conjunto de instrucciones
denominado AVX y una GPU integrada de hasta 12 unidades de ejecución
2011: El AMD Fusion
AMD Fusion es el nombre clave para los microprocesadores Turion, producto
de la fusión entre AMD y ATI, se combinan el proceso de la geometría 3D y
otras funciones de GPUs actuales. La GPU está integrada en el propio
microprocesador. Los primeros modelos salieron entre los últimos meses de
2010 y primeros de 2011 denominados Ontaro y Zacate (bajo consumo),
Llano, Brazos y Bulldozer (gamas media y alta) salieron entre mediados y
finales del 2011.
2012: El Intel Core Ivy Bridge
Ivy Bridge es el nombre en clave de los procesadores conocidos como Intel
Core de tercera generación. Son por tanto sucesores de los micros que
aparecieron a principios de 2011, cuyo nombre en clave es Sandy Bridge.
Pasamos de los 32 nanómetros de ancho de transistor en Sandy Bridge a los
22 de Ivy Bridge. Esto le permite meter el doble de ellos en la misma área. Un
mayor número de transistores significa que puedes poner más bloques
funcionales dentro del chip. Es decir, este será capaz de hacer un mayor
número de tareas al mismo tiempo.
2013: El Intel Core Haswell
Haswell es el nombre clave de los procesadores de cuarta generación de Intel
Core. Son la corrección de errores de la tercera generación e implementan
nuevas tecnologías gráficas para el gamming y el diseño gráfico, funcionando
con un menor consumo y teniendo un mejor rendimiento a un buen precio.
Continua como su predecesor en 22 nanómetros pero funciona con un nuevo
socket con clave 1150. Tienen un costo elevado a comparación con los APU's
y FX de AMD pero tienen un mayor rendimiento.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
2017: El Intel Core i7-7920HQ
Este procesador está en la línea de la séptima generación, incorporando una
potencia y una capacidad de respuesta nunca antes vistas. Especialmente
fabricado para usuarios exigentes que quieren aumentar su productividad, sin
dejar de lado a aquellos que pretenden pensar también en el entretenimiento
y juegos sensacionales, con alta transferencia de datos y mucho más, ya está
disponible en el mercado.
2017: AMD Ryzen
Es una marca de procesadores desarrollados por AMD lanzada en febrero de
2017, usa la microarquitectura Zen en proceso de fabricación de 14 nm y
cuentan con 4800 millones de transistores, ofrecen un gran rendimiento multi-
hilo pero uno menor usando un solo hilo que los de su competencia Intel.
Estos requieren del zócalo AM4 y todas las tarjetas madre para este tipo de
procesadores incorporan multiplicadores desbloqueados para overclocking,
además que todos los productos soportan overclocking automático, aunque
esto procesadores no cuentan con GPU integrada, por lo que dependen de
una solución dedicada. Los procesadores Ryzen devolvieron a AMD a la
gama alta de CPUs de escritorio, capaces de competir en rendimiento contra
los procesadores Core i7 de Intel con precios menores y competitivos; desde
su lanzamiento la cuota de mercado de AMD ha aumentado.
2019: AMD Ryzen 3ra. Generación
Estos procesadores están fabricados en el nuevo proceso de fabricación de
7nm arquitectura Zen2 y fueron puestos a la venta el 7 de julio de 2019. Han
tenido una gran aceptación que han hecho que la cuota de mercado de AMD
haya aumentado y superado en muchos países a su competidor directo intel.
El procesador más potente de esta generación es el AMD Ryzen 9 3950X un
procesador que lleva 16 núcleos y 32 hilos en su interior y será puesto a la
venta en el 4Q del 2019.
2020: Intel Core S 10ª. Generación
Estos procesadores de décima generación se encuentran orientados para
ordenadores 'gaming' de sobremesa, alcanzando una frecuencia de
procesamiento máxima de 5,3 GHz en su modelo tope de gama, el i9-10900K.
[2]
2020: AMD Ryzen 5000
Estos procesadores cuentan con la arquitectura Zen 3 de 7 nanómetros para
gamers, creadores de contenidos, diseñadores y otros trabajadores pesados.
Dominan tareas de varios procesos como el renderizado 3D o video y la
compilación de software. Cuentan con un conjunto de tecnologías para
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
aumentar su poder como Precision Boost 2, Precision Boost Overdrive y PCIe
4.0.
2020: Apple M1
Tras abandonar a Intel, Apple presenta su primer procesador propio para
equipos. Ha sido diseñado con tecnología arm de 5 nanómetros para ofrecer
un alto rendimiento con un bajo consumo de energía. Diversas
funcionalidades como puertos E/S, memoria y seguridad han sido integradas
en el procesador. Utiliza una arquitectura de memoria unificada (UMA) que
incorpora memoria de baja latencia y alto ancho de banda en un mismo
conjunto de recursos para aumentar el rendimiento y la eficiencia. Cuenta con
cuatro núcleos de alto desempeño con otros cuatro de bajo consumo para
tareas menos demandantes. Además incluye gráficos integrados de alto
desempeño y Neural Engine que es un motor diseñado para acelerar el
aprendizaje automático y la Inteligencia artificial.
2021: Intel Core de 11ª Generación
Estos procesadores cuentan con los nuevos transistores SuperFin, combinan
nuevas tecnologías como WiFi 6, Thunderbolt 4, decodificación de medios
AV1, interfaz PCI Express Gen 4 anexada al procesador y características de
seguridad reforzadas por hardware. Admite velocidades de hasta 4.8 Ghz e
Intel Optane H10 con almacenamiento en estado sólido para las unidades
más veloces. Además ofrecen aceleración de inteligencia artificial con su
motor Intel Deep Learning Boost y gráficos Intel Iris X de calidad de tarjeta
dedicada con miles de millones de colores, HDR 10, sonido Dolby Atmos y
Dolby Vision con aceleración por hardware. (Microprocesador - Wikipedia,
la enciclopedia libre, 2021)
Funciones
Un procesador funciona mediante instrucciones, cada una de estas
instrucciones es un código binario de una determinada extensión que la CPU
es capaz de entender.
Un programa, por tanto, es un conjunto de instrucciones y para ejecutarlo se
debe realizar de forma secuencial, esto es, ejecutando en cada paso o
período de tiempo una de estas instrucciones. Para ejecutar una instrucción
hay varias fases:
Búsqueda d la instrucción: traemos la instrucción desde la memoria al
procesador
Decodificación de la instrucción: la instrucción se divide en códigos más
simple entendibles por la CPU
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Búsqueda de operados: con la instrucción cargada en la CPU hay que buscar
el operador que corresponder
Ejecución de la instrucción: se realiza la operación lógica o aritmética
necesaria
Almacenamiento del resultado: el resultado se almacena en la memoria caché
Cada procesador trabaja con un determinado conjunto de instrucciones, estas
han ido evolucionando a la vez que los procesadores. La denominación de
x86 o x386 se refiere al conjunto de instrucciones con las que un procesador
trabaja.
Tradicionalmente a los procesadores de 32 bits se las ha llamado también
x86, esto se debe a que en esta arquitectura han trabajado con este conjunto
de instrucciones desde el procesador Intel 80386 que fue el primero en
implementar una arquitectura de 32 bits. (▷ Qué es un procesador y cómo
funciona, 2021)
Clases
Intel celeron
El equipo portátil: es apta para las necesidades informáticas básicas como
procesar textos.
características:
64 bits del proceso
1mb de memoria cache
bus de datos frontal de 800 mshz
un procesador con velocidad de hasta 2.2 ghz
ahorra energía de acuerdo con las normas establecidas
Intel core 2 dúo
El equipo portátil y computadora de escritorio: este procesador brinda el
desempeño necesario para ejecutar múltiples tareas al mismo tiempo.
características:
memoria 2 núcleos de procesamiento
memoria cache de 2mb hasta 6mb
bus total frontal. en este caso,dependiendo el numero de procesador, el
ancho de banda puede ser de 533 mhz, 800 mhz a 1066 mhz.
Intel core 2 quad
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Equipo portátil y ordenador de escritorio: fue diseñado con el fin de que su
desempeño sea procesar entretenimientos como: videojuegos de alto nivel,
editar vídeos, fotografías, reproducir películas y música.
Características:
4 núcleos
memoria cache de 4 mb, 6mb y 12 mb
bus de datos frontal de 800 mhz y 1066 mhz
procesador con velocidad de 2.53 ghz, 2,60ghz,2.80ghz y 3.06 ghz
Intel core i3
Este microprocesador utiliza la tecnología hyper thereading.
Caracteristicas:
procesador de dos núcleos
memoria cache de 3mb
velocidad ddr3 de 800mhsz hasta 1066mhz. ddr3 es la habilidad de hacer
trasferencia de datos ocho veces mas rápido.
procesador con velocidad de 2.13ghz y 2.2ghz.
Intel core i5
Es para uso cotidiano, es posible trabajar en dos tareas a la vez, y tienen la
capacidad de aumentar su velocidad.
Características:
posee 4 vías con impulso de velocidad.
8mb de memoria cache
velocidad ddr3 de 1333 mshz
procesador con velocidad de 2.53 ghz
Intel core i7
Es apropiada para editar vídeos y fotografías, divertirse con juegos.
Características:
posee un núcleo
memoria cache de 4mb, 6mb y 8mb
velocidad ddr3 de 800mhz, 1066 mghz y 1333 mgz
procesador con velocidad de 3.06 ghz, 2.93 ghz y 2.66 ghz por núcleo.
Intel atom
Se puede realizar las operaciones básicas, como escribir textos y navegar por
internet desde cualquier sitio.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Características:
posee un núcleo
memoria cache de 512kb
un bus de datos frontal de 667 mhz
velocidad del procesador de 1.66 mhz
AMD phenom II: X3 Y X4
Es ideal para entretenimientos en alta definición como, juegos, editar vídeo y
fotografía.
Características:
esta formado de tres a 4 núcleos
memoria cache de 4mb y 6 mb
un bus de datos frontal de 1066 mhz
32 y 64 bits de proceso.
AMD athlon II x2
Convierte de una manera rápida la música y los vídeos a otros formatos.
Características:
posee 2 núcleos
memoria cache de 2mb
32 y 64 bits de proceso.
AMD semprom
Es capaz de realizar varias tareas a la vez, ideal para la reproducción de
vídeo y música.
Características:
memoria ddr2 de 2gb, expandible hasta 4gb, esta memoria es la que permite
llevar a cabo varias tareas al mismo tiempo.
tiene una memoria cache l2 de 512 kb
un bus de datos frontal de 1600 mhz
velocidad del procesador de hasta 2.3 ghz (Tipos de microprocesadores
actuales - Jose Manuel Box, 2021)
BIOS
Evolucion histórica
1970
Su creador
El acrónimo BIOS fue inventado por Gary Kildall
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
1975
Origen del nombre
El nombre se originó en 1975, en el BIOS usado por el sistema operativo
CP/M.
1981
Diseño de IBM PC
incluyó todas las funcionalidades básicas de entrada y salida en memorias
tipo ROM, uso que posteriormente se erigió como el estándar de facto para la
industria.
Periodo: 1982 to 1989
Sucesos durante los años siguientes
El BIOS del 5150 fue el único programa que la compañía IBM desarrollo para
el equipo, siendo la única pieza de código sobre la que se tenían derechos
exclusivos.
Basándose en procesos de Ingeniería Inversa, se escribieron versiones que
tenían idénticas funcionalidades a la BIOS IBM pero además incluyeron
nuevos dispositivos como los discos duros y varias unidades de disquete
manteniendo la retrocompatibilidad hasta el día de hoy.
1990
almacenamiento del BIOS
el BIOS era almacenado en memorias ROM o EPROM
1995
memorias flash
después comenzó a utilizarse memorias flash que pueden ser actualizadas
por el usuario sin necesidad de destapar la caja.
Period: 2000 to 2005
firmaware
Se ha desarrollado el firmaware EFI como esquema de ROM que
reemplazará a la BIOS llegada que está limitada a ejecutarse en 16 bits
cuando la mayoría de procesadores son capaces de funcionar a 64 bits.
2007
Centro de Bioinformática y Biología Computacional
Nace la idea de un Centro de Bioinformática y Biología Computacional en
Colombia como una apuesta para el fortalecimiento de la Ciencia, Tecnología
e Innovación
2010
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Firma del memorando para la creación del Centro de Bioinformática y Biología
Computacional de Colombia – BIOS.
2011
Consolidación del Centro de Bioinformática y Biología Computacional de
Colombia BIOS.
2012
Actividades de investigación
Despliegue de actividades de investigación científica y desarrollo tecnológico.
2013
infraestructura computacional
Llegada de la infraestructura computacional de altas prestaciones.
Lanzamiento del Centro. Reconocimiento como centro de desarrollo
tecnológico.
2014
Inicio del proyecto
Inicio de la ejecución del proyecto de regalías “Caldas Bio-región”.
Reconocimiento del grupo de investigación. Definición de proyectos
emblemáticos.
2015
Lanzamiento de la sala de visualización.
2016
Despliegue de estrategias
Despliegue de estrategias de formación, investigación aplicada, articulación
institucional y emprendimiento.
2017
Cierre del proyecto
Cierre con éxito del proyecto de regalías Caldas – Bio Región, reconocido por
el DNP como un caso de éxito nacional de ejecución y cumplimiento de
objetivos.
2018
Implementación de proyectos de investigación
Fortalecimiento del trabajo articulado, con la implementación de proyectos de
investigación aplicada, para responder a las necesidades del país, en
términos de soluciones en seguridad ambiental, innovación de productos
alimenticios, cosméticos y salud, incremento de la productividad agrícola,
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
control de plagas y enfermedades, mejores o nuevos servicios para la
ciudadanía, así como también la aplicación de inteligencia artificial para
optimizar (Evolución de BIOS timeline., 2021)
Funciones
El BIOS es responsable de cargar el hardware básico de la computadora y
arrancar el sistema operativo. El BIOS contiene varias instrucciones para
cargar el hardware. También realiza una prueba que ayuda a verificar si la
computadora cumple con todos los requisitos básicos para el arranque. Esta
prueba se denomina autoprueba de encendido o simplemente POST. La
computadora comienza a emitir un pitido si la prueba POST no indica que hay
algún problema dentro de la computadora. (¿Qué es y para qué sirve la
BIOS? - Trustnet, 2021)
Clases
ROM: deriva del nombre en inglés “Read Only Memory”. Se caracteriza por
ser una memoria no volátil. Esto quiere decir que los datos que se encuentran
en la misma no pueden ser alterados ni tampoco la información que tiene
guardada se perderá cuando se apague el ordenador. Su funcionamiento no
depende de otras unidades de almacenamiento, como puede ser el disco
duro.
EPROM: es el acrónimo de “Erasable Programmable Read Only Memory”. Se
diferencian de la clasificación anterior porque se pueden volver a programar
por medio de impulsos electrónicos a través de un programador de EPROM
en el chip. Debes tener en cuenta que, para hacer una reprogramación,
primero tendrás que borrar su contenido. Cuando quieras eliminarlo, deberás
hacerlo por medio de rayos ultravioleta, este proceso dura hasta 25 minutos.
Flash BIOS: se caracteriza por ser una memoria volátil. Por lo que puede ser
regrabada sin la necesidad de eliminar su contenido de forma previa por algún
método específico. Es la más utilizada en la actualidad, ya que puede ser
configurada de una manera sencilla y rápida. (【 BIOS del ORDENADOR 】
¿Qué Es? + Tipos ▷ 2021, 2021)
Disco Duro
Evolución histórica
IBM RAMAC35
En 1957, se introdujo como un componente de IBM RAMAC la primera unidad
de discos duro350. Requirió 50 discos de 24 pulgadas para guardar cinco
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
megabytes (millón bytes, se abrevió MB) de datos y costó bruscamente
US$35.000 por año o arrendarlo a US$7.000 por megabyte anual. fue el
primer ordenador comercial que utilizaba disco duro de cabeza móvil (unidad
de disco magnético) como almacenamiento secundario. IBM lo lanzó el 4 de
septiembre de 1956. RAMAC eran las iniciales en inglés de "Sistema de
Contabilidad con Memoria de Acceso Aleatorio" ("Random Access Memory
ACcounting System Su diseño estuvo motivado por la necesidad de sustituir
el fichero de tarjetas perforadas utilizado por la mayoría de las oficinas de la
época. El primer RAMAC destinado a ser usado en la industria del automóvil
estadounidense fue instalado en la Chrysler's MOPAR División en 1957.
Sustituyó a un gigantesco fichero que era parte del sistema de procesamiento
para el control de inventario y pedidos de piezas de MOPAR. El 305 fue uno
de los últimos ordenadores de tubo de vacío construídos por IBM.
El sistema de disco IBM 350 almacenaba cinco millones de caracteres de
siete bits (aproximadamente 4,2 MiB). Tenía cincuenta discos de veinticuatro
pulgadas de diámetro. Dos brazos independientes se desplazaban
verticalmente seleccionar un disco y horizontalmente para seleccionar una
pista de grabación, todo para control de servomecanismos. El tiempo medio
de posicionamiento en un registro era de seiscientos milisegundos. En la
década de 1950 se añadieron varios modelos mejorados. El ordenador IBM
RAMAC 305 con almacenamiento en disco 350 tenía un coste en "leasing" de
3.200 dólares mensuales en dólares de 1957, equivalente a un precio de
compra de unos 160.000 dólares. Se construyeron más de 1.000 unidades. La
producción terminó en 1961, el RAMAC pasa ser obsoleto en 1962 con el
lanzamiento del IBM 1401 y retirado del mercado en 1969.
El modelo 1301
1962
IBM introdujo un nuevo modelo, el 1301, con una capacidad de 28 MB y una
velocidad de transferencia y una densidad de área 10 veces mayor que el
RAMAC 305. La distancia entre los cabezales y la superficie del disco había
descendido desde 20,32 µm a 6,35 µm.
A partir del año 1962, muchos fabricantes comenzaron a vender discos duros
como el 1301. La Unidad de almacenamiento en disco de IBM, con su mayor
capacidad, flexibilidad y velocidad, hemos ampliado la capacidad operativa de
la serie 7000 de los ordenadores de IBM (7070, 7094, 7080 y 7090). El 1301
aumentó el rendimiento de los sistemas grandes para muchos tipos de
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
empleos, y con su organización única de datos, el 1301 contribuyó de manera
significativa a la vez que 7000 servidores en realidad podría calcular.
Utilizado en combinación con la serie 7000, el 1301 había muchos de los
mismos y las características físicas generales de funcionamiento como
cuando se utiliza con el IBM 1410 Data Processing System. Estas
características incluyen: el concepto del cilindro (verticalmente alineados de
lectura / escritura cabezas, una a una superficie del disco, para proporcionar
la lectura y escritura de información en temas relacionados con el disco
correspondiente y para eliminar la necesidad de acceso para el movimiento
vertical); longitud de registro flexibles (diferentes registros de longitud podría
ser almacenados en el archivo, aumentando enormemente la capacidad de
almacenamiento real); y selectiva frente (números de registro fueron
asignados por el usuario para una mayor eficacia en muchos puestos de
trabajo, las direcciones no tienen que ser consecutivos, secuencial o
numérico).
El 1301 de los discos giran a 1.800 rpm. El 1301 proporcionó el 50 pistas por
pulgada y grabación de hasta 520 bits por pulgada de pista (gracias a una
reducción media en la cabeza-a-distancia de la superficie de 800 a 250
micropulgadas). Como resultado, la capacidad de almacenamiento por
pulgada cuadrada de la superficie se incrementó 13 veces más de lo que
había sido con la tecnología de IBM RAMAC de 1956.
El modelo 2310
1965
En 1965, IBM lanzó el modelo 2310, cuya notable característica era ser un
elemento de almacenamiento desmontable (el primer disco flexible). En abril
de 1967, IBM anunció una expansión de cuatro modos de sistema de 1130.
Nuevas características para el escritorio de computadora del tamaño de IBM
más pequeño a la vez, incluyó la capacidad de leer la información de cinco
discos magnéticos al mismo tiempo. Anteriormente, sólo un equipo autónomo
de disco (primer plano) estaba disponible. Sin embargo, en 1967, hasta cuatro
discos adicionales (a la derecha, parte trasera) se podría agregar. Cada uno
puede almacenar hasta un millón de caracteres de información.
El 2314
1966
El 2314, lanzado en 1966, tenía cabezales de lectura de ferrita (óxido de
hierro).
Anunció un año después de la System /360 en abril de 1965, el IBM 2314
proporcionó ocho unidades de disco y una de repuesto, junto con una unidad
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
de control en una misma instalación. Un paquete nuevo disco con 11 discos
duplicó el número de superficies de almacenamiento de más de los
disponibles en el paquete de la primera de disco extraíble. La densidad de
grabación el incremento de la capacidad de almacenamiento de 29,2 millones
de bytes por paquete o 233 millones de bytes en las ocho instalaciones de
carga. El tiempo de acceso y la latencia de la 2314 era la misma que la de
más edad de IBM 2311, pero el 2314 ofrece el doble de la velocidad de datos
de 310.000 bytes por segundo. El 2314 también fue interesante porque era
cuatro veces menor en el precio por megabyte de almacenamiento.
Winchester 3340
1973
En 1973, IBM lanzó el Winchester 3340, un disco duro cuyo cabezal de
lectura estaba separado de la superficie a través de una fina capa de aire de
tan sólo 0,43 µm de espesor. Mejoró su capacidad en comparación con
aquella del RAMAC, como también su tamaño y peso, lo cual hizo que este
disco se convirtiera el nuevo estándar de los dispositivos de almacenamiento
de acceso directo. Al disco duro de 30 MB de capacidad se le dio el apodo de
30-30, y así se convirtió en el "Winchester" (como el famoso rifle 30-30). Tras
un esfuerzo de desarrollo que comenzó en el verano de 1969, la unidad de
disco IBM 3340 fue presentado en marzo de 1973, con una tecnología
avanzada de disco conocido como "Winchester". * Los primeros 3.340 envíos
a los clientes se inició en noviembre de 1973.
El 3340 aparece una más pequeña, más ligera lectura / escritura de la cabeza
que podía montar más cerca de la superficie del disco - en una película de
ambiente 18 millonésimas de pulgada de grosor - con una carga de menos de
20 gramos. Baja el archivo de disco Winchester cabeza de estructura de
costes deslizante, hizo posible el uso de dos cabezas por superficie,
reducción de la longitud de la carrera a la mitad. Los discos, el eje del disco y
rodamientos, el transporte y la cabeza asambleas brazo se incorporaron en
un cartucho sellado, desmontable, llamado 3348 de IBM Data Module. Una
densidad de pista de 300 pistas por pulgada y un tiempo de acceso de 25
milisegundos se han alcanzado.
El 3340 ofrece la disponibilidad de los jefes fija opcional, que proporcionan un
tiempo de acceso promedio de sólo cinco milisegundos. Había tres tipos de
módulos de datos: 35 megabytes, 70 megabytes, y 70 megabytes de los
cuales 0,5 megabytes eran accesibles con la cabeza fija.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Dos a cuatro unidades de 3340 podrían estar vinculadas a la modelo de
procesador IBM System/370 115 - que había sido anunciada simultáneamente
con el 3340 - proporcionando una capacidad de almacenamiento de hasta
280 millones de bytes
Seagate
1980
El primer disco duro de 5,25" (cinco-coma-veinticinco pulgadas), desarrollado
por la compañía Seagate, se lanzó en [Link] revolución de la computadora
personal a comienzos de 1980 cambió todo, es la introducción de los primeros
discos duros pequeños. Eran discos de 5.25 pulgadas los que manejaban de
5 a 10 MB de almacenamiento- el equivalente de 2.500 a 5.000 páginas de
tecleo de información- en un aparato del tamaño de la caja de un zapato
pequeño. Al tiempo se consideró que una capacidad de almacenamiento de
10 MB era demasiado grande para una llamada computadora "personal". Los
primeros PCS usaron discos flexibles trasladables como aparatos de
almacenamiento casi exclusivamente. El término "disco blando" con precisión
se refiere a los primeros discos para PC de 8 y 5.25 pulgadas que tuvieron
éxito. Los discos internos de hoy, más pequeños, se construyen 3.5 pulgadas
de forma similar a los anteriores, pero se albergan en un casco de plástico
rígido, que es más durable que el techado flexible
de los discos más grande
MFM
Años más tarde, se inventó el primer disco duro para ordenadores personales.
Usando el método de codificación de MFM, tenía una capacidad de 40MB y
una velocidad de transferencia de datos de 625 KBps. Una versión posterior
del interfaz ST506 trasladó al método de codificación de RLL, facilitando una
aumentada capacidad de almacenaje y velocidad de procesamiento. Las
unidades de disco utilizado por el modelo I, II, III, 4, 4D, 4P, 16, 12, 16B,
16BHD, 6000 y 6000HD son principalmente ST506 unidades de tipo. El
ST506 Seagate es un disco que tenía una interfaz de MFM (Modified
Frequency Modulation) que se ha repetido en docenas de unidades diferentes
a lo largo de los años. Con el tiempo, que la interfaz ha tomado el nombre de
la unidad ST506 original. La unidad ST506 es una unidad de capacidad muy
baja para los estándares de hoy pero la interfaz había suficiente flexibilidad
para permitir un mayor crecimiento. (La interfaz ST506 también fue llamada la
"S" interface por algunos fabricantes por un tiempo que no quería hablar de la
ST506, un modelo de unidad competitiors, pero la "S" nombre ya no era
utilizado por la década de 1980. En esa la fecha, las unidades IDE SCSI y
había comenzado a apoderarse del mercado de almacenamiento.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Discos para computadoras de escritorio
Por 1987 unidades de discos duros de 3.5 pulgadas empezaron a aparecer.
Éstas unidades pequeñas pesan como una libra y son del tamaño de una
agenda. Estos fueron integrados dentro de computadores de escritorio y más
tarde se incorporaron a los primeros en de verdad llamados computadoras
portátiles (laptops) -peso promedio bajo 12 libras. La unidad de 3.5 pulgadas
rápidamente volvió a ser la norma para los computadores de escritorio y
sistemas portátiles que requerían menos que 500 MB capacidad. Altura
también se encoge con la introducción del disco de 1 pulgada de alto,
dispositivos de 'bajo perfil'.
Así como la forma de 3.5 pulgadas ganaba aceptación, todavía una forma
más pequeña, de 2,5
pulgadas, poco a poco apareció en la escena. No sorprende que la marcha a
la miniaturización no se detuvo con 2.5 pulgadas.
Surgimiento de varios modelos
Alrededor de 1992 varios modelos 1.8 pulgadas aparecieron, peso sólo unas
onzas y entrega capacidades de hasta 40 MB. Igualmente aparecieron con
formato de 1.3 pulgadas, del tamaño de una fosforera. Factores de forma más
pequeños por supuesto, no eran necesariamente mejor que los más grandes.
Desde su introducción, el disco duro se ha vuelto la forma más común de
almacenamiento en masa para computadoras personales. Fabricantes han
hecho grandes avances en capacidad, tamaño y ejecución. Hoy, el formato de
3.5 pulgadas, es capaz de manejar y acceder a millones de datos (gigabyte
GB) mientras el computador esta accediendo a las aplicaciones multimedia,
gráficos de alta calidad, gestión de redes, y aplicaciones de las
comunicaciones. Y, según el tamaño maneja no sólo el equivalente de cientos
de miles de páginas de información, sino que también recupera un dato o
artículo determinado en sólo unas milésimas de segundo. Aún más, con el
transcurrir del tiempo cada vez es más barato la unidad de disco.
Almacenamiento masivo
1995-1999
El disco duro más pequeño que puede encontrarse en ésta época es el de 4
GB, mientras que el más grande es de 15 GB. Podría decirse que los discos
duros de cualquier tamaño, permiten instalar Windows, Office y un programa
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
de contabilidad, y aún sobrará capacidad para, digamos, unas 50.000 cartas y
varios millones de apuntes bancarios.
Un caso distinto es el del usuario doméstico; en teoría, apenas necesitaría un
poco más de capacidad que el usuario ofimático,
En cuanto a los profesionales del CAD o la edición de vídeo, la capacidad que
siguen necesitando sigue siendo bastante elevada, aunque en este caso el
tamaño no debe ser una obsesión; sencillamente, en estas aplicaciones el
disco duro es sólo una herramienta de trabajo, nunca de archivo. Para eso
están los magneto-ópticos, el Jaz o las omnipresentes grabadoras de CD.
MK4058GSX
2000
Lanzado por Toshiba. De 400 GB. Consecución de una densidad superficial
de almacenamiento de 477Mbit/mm2 (308Gbspi). El MK4058GSX logra una
densidad superficial de almacenamiento de 477Mbit/mm2 como resultado de
mejorar la cabeza de lectura/escritura y la capa magnética. Con el mismo
diseño de dos platos que el diseño actual del disco de 320GB de Toshiba, el
nuevo modelo ofrece una capacidad de 400GB, la mayor capacidad obtenida
hasta la fecha, mientras conserva el espesor de 9,5 mm de su antecesor.
2. 2dB de reducción en el ruido acústico durante la búsqueda de datos.
Toshiba ha concentrado sus más recientes avances en la tecnología de
discos duros para reducir el ruido en 2dB, suprimiéndolo a un nivel en el cual
los usuarios pueden reproducir películas y música sin ninguna distracción
ocasionada por el ruido durante la búsqueda de datos.
3. Mejora en la eficiencia del consumo de energía.
Comparado con el MK3252GSX de 320GB, el nuevo MK4058GSX mejora la
eficiencia en el consumo de energía, según se define en el estándar legal
japonés, a 0,0015W/GB, una mejora del 20%
SSD25D 2,5 (De Estado Solido)
2009
Este nuevo dispositivo -SSD25D asegura una alta velocidad de transmisión
de datos. Transcend Information anuncia el lanzamiento de su último disco
duro en estado sólido ultra rápido SATA II de 2,5’’, equipado con 64 MB de
memoria caché DRAM. Ofrece una velocidad de transferencia de datos, de
más de 230M/s en lectura y de 180MB/s en escritura, garantizando así
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
rapidez en el rendimiento, sin importar el tamaño o el tipo del archivo que se
quiera transmitir.
Construido con memoria NAND flash, que no contiene partes móviles,
SSD25D es altamente resistente, y silencioso; además, este dispositivo es
prácticamente inmune a problemas mecánicos por exceso de vibración,
golpes o calor. Para mayor seguridad, SSD25D integra el código ECC (Error
Correction Code), que asegura una transmisión de datos precisa.
La Cie Bigger Disk Extreme
marca un antes y un después en cuanto al almacenamiento de datos. Ningún
otro es capaz de guardar tantos contenidos: más de 625.000 canciones en
MP3, 1,3 millones de fotos o hasta 425 películas en calidad DVD.
Esta impresionante capacidad de 2.000 GB, impensable hasta la fecha,
convierte al Bigger Disk Extreme en el disco duro perfecto para cualquier
empresa. Tan útil para hacer copias de seguridad como para almacenar
bases de datos, es además el compañero perfecto de los editores de vídeo.
Unos profesionales que manejan toneladas de imágenes y que necesitan una
gran velocidad de transferencia de datos.
Potente y rápida, esta gran revolución del almacenamiento cuenta con triple
interfaz USB 2.0, FireWire 400 y FireWire 800. Ofrece una velocidad de
transferencia un 50% más alta que el resto de las unidades FireWire 800. En
concreto, Bigger Disk Extreme alcanza los 85 megabytes por segundo.
A pesar de ser el disco más grande del mundo en cuanto a capacidad, Bigger
Disk Extreme ocupa sólo 8,8 cm. de alto x 27 cm. de largo y 17,3 cm de
ancho. Gracias a su diseño exclusivo y compacto se puede apilar o poner en
vertical sobre una base para ahorrar espacio en el escritorio. Además, el
equipo incluye un cómodo ventilador inteligente que protege el disco contra el
exceso de calor sin hacer apenas ruido. (Evolución de Disco Duro - Linea
de Tiempo del Disco Duro, 2021)
Funciones
La función fundamental de un disco duro es almacenar información de forma
permanente. En un ordenador el disco duro hospeda el sistema operativo, las
aplicaciones y los datos del usuario.
Los discos duros también se pueden utilizar para recuperar información. La
información almacenada en el disco se mueve hacia otro disco para
recuperarla si el disco se ha dañado o para hacer copias de seguridad.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
El disco duro se puede emplear con fines de portabilidad. Habitualmente nos
movemos llevando información de un lugar a otro.
Los discos duros se utilizan con mucha frecuencia para obtener redundancia
almacenando datos en varios discos duros. Esto es lo que se conoce como
arreglo de disco o RAID. (Disco Duro | Características, Funciones, Tipos
De Interfaces, 2021)
Clases
Existen 4 clases de discos duros y son:
Disco duro SAS
Disco duro SCSI
Disco duro IDE, ATA y PATA
Disco duro SATA y SATA 2
SAS: Estos discos son muy solicitados para el empleo en servidores, es
posible conectarlos hasta con 6 ó 7 metros de distancia y de ahí en adelante
cubrir hasta 24 computadoras.
SCSI: Estos discos poseen una interfaz muy pequeña y exige de un
controlador para que opere.
IDE, ATA y PATA: Cada clase de disco duro representa o quiere decir: IDE.
Es la abreviatura de componente electrónico integrado. ATA. Es la abreviatura
de tecnología avanzada de contacto. PATA. Es la abreviatura de tecnología
paralela avanzada.
SATA: Esta sigla significa tecnología avanzada de contacto. Y se distingue
por funcionar con una velocidad cercana a los 150 megabytes por segundo.
SATA 2: Este dispositivo dispone de mejor capacidad debido a que funciona
hasta con 300 megabytes por segundo, lo que representa que su tiempo de
respuesta es muy bueno. DISCO DURO SATA 2 se diferencia en
comparación con el SATA es que realiza sus actividades a
300Megabytes/segundo.
Las clases de discos duros con respecto al tipo de conexión son:
Discos duros para computadora de escritorio SATA ( Sus siglas significan
“Serial ATA”)
Estas clases de discos duros, pertenecen a los de conexión SATA, y son de
los modelos de discos duros que disponen las computadoras modernas. Se
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
destacan por el tipo de conexión, gracias a que son un bus serie, lo cual es
útil para la trasmisión de información. Son muy ágiles.
Existen tres clases:
SATA – 1: Alcanza una velocidad de hasta 150 Mb de transferencia.
SATA – 2: Alcanza una velocidad de hasta 300 Mb de transferencia.
SATA – 3: Alcanza una velocidad de hasta 600 Mb de transferencia, por su
rendimiento es el más solicitado además de contar con una gran capacidad al
mismo tiempo su tamaño es pequeño, con relación a los demás.
(¿Cuáles son las clases de discos duros que existen? - Loyvan Servicios
Empresariales, 2021)
Unidades Opticas
Evolucion historica
Aunque la investigación en almacenamiento óptico de datos ha sido constante
durante muchos decenios, el primer sistema popular es el disco compacto,
que se introdujo en 1982. El disco compacto fue adaptado para el
almacenamiento de datos por el Libro Amarillo en 1985 y es allí donde se crea
el CD-ROM y vuelve a adaptarse para marcar la creación del CD-R y CD-RW
en 1988. El disco compacto sigue siendo el estándar de facto para
grabaciones de audio, aunque su lugar para otras grabaciones multimedia ha
sido sustituida en gran medida por el DVD.
DVD (acrónimo de "Digital Versatile Disc") fue el sucesor del CD. Se creó en
1996, de nuevo inicialmente para el vídeo y el audio. Existen actualmente
DVD grabables con formatos elaborados algún tiempo más tarde: DVD-R a
finales de 1997 y DVD + R en 2002. A partir de 2007 el DVD se convirtió en el
estándar para películas y almacenamiento de datos más allá de la capacidad
de un CD.
Con el desarrollo de la televisión de alta definición, y la popularización de la
banda ancha y almacenamiento digital de películas, un nuevo formato se
desarrolló, y una vez más dando al Blu-ray. A partir de 2007 se han expuesto
películas en los nuevos formatos, pero todavía no han hecho impacto en el
mercado mundial para el almacenamiento de datos. Toshiba, después de
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
sufrir una serie de pérdidas significativas frente el formato Blu-ray (de Sony),
anunció la retirada de su HD DVD, el 19 de febrero de 2008.
A partir de 2007, el desarrollo de las tecnologías de almacenamiento óptico
parece estar basada en una o varias de las siguientes tecnologías, todo ello
en distintas etapas de desarrollo:
Sistema de almacenamiento holográfico.
Sistema de almacenamiento en 3D.
Óptica de campo cercano.
Óptica de inmersión sólida (que permite una muy alta apertura numérica).
Discos utilizando longitudes de onda muy cortas, tales como la radiación
ultravioleta o los rayos X.
Discos con selección de capa (LS-R).
Tecnología Multi-nivel. (Historia de los medios de almacenamiento óptico -
Wikipedia, la enciclopedia libre, 2021)
Funciones
Es una unidad de disco que usa una luz láser u ondas electromagnéticas
cercanas al espectro de la luz como parte del proceso de lectura o escritura
de datos desde o a discos ópticos. Los discos compactos CD, DVD, son los
tipos de medios ópticos más comunes que pueden ser leídos y grabados por
estas unidades (perfil, 2021)
Clases
Unidad lectora/escritora de discos LS-120
Unidad lectora de CD-ROM
Unidad grabadora de CD-ROM (quemador interno)
Unidad Combo CD-RW/DVD (quemador/lector interno)
Unidad lectora de DVD-ROM
Unidad grabadora de DVD-ROM interna (quemador interno)
Unidad grabadora de DVD-ROM externa (quemador externo)
Unidad lectora de HD-DVD
Unidad lectora de Blu-ray Disc
Unidad grabadora de Blu-ray Disc (quemador interno)
Unidad externa basada en Case 5.25" (Tipos de unidades Opticas , discos
caracterIsticas y capacidades)
Memoria Ram
Evolucion Histórica
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Uno de los primeros tipos de memoria RAM fue la memoria de núcleo
magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores
hasta el desarrollo de circuitos integrados a finales de los años 60 y principios
de los 70. Esa memoria requería que cada bit estuviera almacenado en un
toroide de material ferromagnético de algunos milímetros de diámetro, lo que
resultaba en dispositivos con una capacidad de memoria muy pequeña. Antes
que eso, las computadoras usaban relés y líneas de retardo de varios tipos
construidas para implementar las funciones de memoria principal con o sin
acceso aleatorio.
En 1969 fueron lanzadas una de las primeras memorias RAM basadas en
semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits
de memoria y para el siguiente año se presentó una memoria DRAM de 1
Kibibyte, referencia 1103 que se constituyó en un hito, ya que fue la primera
en ser comercializada con éxito, lo que significó el principio del fin para las
memorias de núcleo magnético. En comparación con los integrados de
memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía
un desempeño mayor que la memoria de núcleos.
En 1973 se presentó una innovación que permitió otra miniaturización y se
convirtió en estándar para las memorias DRAM: la multiplexación en tiempo
de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4 Kb
en un empaque de 16 pines,mientras sus competidores las fabricaban en el
empaque DIP de 22 pines. El esquema de direccionamiento se convirtió en un
estándar de facto debido a la gran popularidad que logró esta referencia de
DRAM. Para finales de los 70 los integrados eran usados en la mayoría de
computadores nuevos, se soldaban directamente a las placas base o se
instalaban en zócalos, de manera que ocupaban un área extensa de circuito
impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el
impreso principal, impedía la miniaturización , entonces se idearon los
primeros módulos de memoria como el SIPP, aprovechando las ventajas de la
construcción modular. El formato SIMM fue una mejora al anterior, eliminando
los pines metálicos y dejando unas áreas de cobre en uno de los bordes del
impreso, muy similares a los de las tarjetas de expansión, de hecho los
módulos SIPP y los primeros SIMM tienen la misma distribución de pines.
A finales de los 80 el aumento en la velocidad de los procesadores y el
aumento en el ancho de banda requerido, dejaron rezagadas a las memorias
DRAM con el esquema original MOSTEK, de manera que se realizaron una
serie de mejoras en el direccionamiento.
La tecnología de memoria actual usa una señal de sincronización para
realizar las funciones de lectura-escritura de manera que siempre esta
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
sincronizada con un reloj del bus de memoria, a diferencia de las antiguas
memorias FPM y EDO que eran asíncronas. Hace más de una década toda la
industria se decantó por las tecnologías síncronas, ya que permiten construir
integrados que funcionen a una frecuencia superior a 66 MHz. (Historia de la
Memoria Ram - LineadetiempoMemoriaRam, 2021)
Funciones
Su función principal es recordar la información que tienes en cada una de las
aplicaciones abiertas en el computador, mientras este se encuentre
encendido.
Esta memoria de corto plazo solo actúa cuando el computador esté
encendido. Cuando trabajes en un documento como una hoja de cálculo u
otro tipo de archivo, debes guardarlo para evitar que este se borre o pierda.
Algunos equipos y aplicaciones tienen la función de autoguardado, pero no te
confíes tanto. Cuando guardas los datos se graban en el disco duro hasta que
tu decidas borrarlos.
La memoria RAM se mide en megabytes (MB) o gigabytes (GB). Cuanta más
memoria RAM tenga tu computador, más cosas podrás hacer al mismo
tiempo. Si no tienes la suficiente memoria RAM, podrás notar que tu
ordenador se pone lento al tener muchos programas abiertos. (Informática
Básica: Memoria RAM y disco duro, 2021)
Clases
VRAM :
Siglas de Vídeo RAM, una memoria de propósito especial usada por los
adaptadores de vídeo. A diferencia de la convencional memoria RAM, la
VRAM puede ser accedida por dos diferentes dispositivos de forma
simultánea. Esto permite que un monitor pueda acceder a la VRAM para las
actualizaciones de la pantalla al mismo tiempo que un procesador gráfico
suministra nuevos datos. VRAM permite mejores rendimientos gráficos
aunque es más cara que la una RAM normal.
SIMM :
Siglas de Single In line Memory Module, un tipo de encapsulado consistente
en una pequeña placa de circuito impreso que almacena chips de memoria, y
que se inserta en un zócalo SIMM en la placa madre o en la placa de
memoria. Los SIMMs son más fáciles de instalar que los antiguos chips de
memoria individuales, y a diferencia de ellos son medidos en bytes en lugar
de bits.
El primer formato que se hizo popular en los computadores personales tenía
3.5" de largo y usaba un conector de 32 pins. Un formato más largo de 4.25",
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
que usa 72 contactos y puede almacenar hasta 64 megabytes de RAM es
actualmente el más frecuente.
Un PC usa tanto memoria de nueve bits (ocho bits y un bit de paridad, en 9
chips de memoria RAM dinámica) como memoria de ocho bits sin paridad. En
el primer caso los ocho primeros son para datos y el noveno es para el
chequeo de paridad.
DIMM :
Siglas de Dual In line Memory Module, un tipo de encapsulado, consistente en
una pequeña placa de circuito impreso que almacena chips de memoria, que
se inserta en un zócalo DIMM en la placa madre y usa generalmente un
conector de 168 contactos.
DIP :
Siglas de Dual In line Package, un tipo de encapsulado consistente en
almacenar un chip de memoria en una caja rectangular con dos filas de pines
de conexión en cada lado.
RAM Disk :
Se refiere a la RAM que ha sido configurada para simular un disco duro. Se
puede acceder a los ficheros de un RAM disk de la misma forma en la que se
acceden a los de un disco duro. Sin embargo, los RAM disk son
aproximadamente miles de veces más rápidos que los discos duros, y son
particularmente útiles para aplicaciones que precisan de frecuentes accesos a
disco.
Dado que están constituidos por RAM normal. los RAM disk pierden su
contenido una vez que la computadora es apagada. Para usar los RAM Disk
se precisa copiar los ficheros desde un disco duro real al inicio de la sesión y
copiarlos de nuevo al disco duro antes de apagar la máquina. Observe que en
el caso de fallo de alimentación eléctrica, se perderán los datos que huviera
en el RAM disk. El sistema operativo DOS permite convertir la memoria
extendida en un RAM Disk por medio del comando VDISK, siglas de Virtual
DISK, otro nombre de los RAM Disks.
Memoria Caché ó RAM Caché :
Un caché es un sistema especial de almacenamiento de alta velocidad.
Puede ser tanto un área reservada de la memoria principal como un
dispositivo de almacenamiento de alta velocidad independiente. Hay dos tipos
de caché frecuentemente usados en las computadoras personales: memoria
caché y caché de disco. Una memoria caché, llamada tambien a veces
almacenamiento caché ó RAM caché, es una parte de memoria RAM estática
de alta velocidad (SRAM) más que la lenta y barata RAM dinámica (DRAM)
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
usada como memoria principal. La memoria caché es efectiva dado que los
programas acceden una y otra vez a los mismos datos o instrucciones.
Guardando esta información en SRAM, la computadora evita acceder a la
lenta DRAM.
Cuando un dato es encontrado en el caché, se dice que se ha producido un
impacto (hit), siendo un caché juzgado por su tasa de impactos (hit rate). Los
sistemas de memoria caché usan una tecnología conocida por caché
inteligente en el cual el sistema puede reconocer cierto tipo de datos usados
frecuentemente. Las estrategias para determinar qué información debe de ser
puesta en el caché constituyen uno de los problemas más interesantes en la
ciencia de las computadoras. Algunas memorias caché están construidas en
la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium
II tiene una caché L2 de 512 Kbytes.
El caché de disco trabaja sobre los mismos principios que la memoria caché,
pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria
principal. Los datos más recientes del disco duro a los que se ha accedido
(así como los sectores adyacentes) se almacenan en un buffer de memoria.
Cuando el programa necesita acceder a datos del disco, lo primero que
comprueba es la caché del disco para ver si los datos ya estan ahí. La caché
de disco puede mejorar drásticamente el rendimiento de las aplicaciones,
dado que acceder a un byte de datos en RAM puede ser miles de veces más
rápido que acceder a un byte del disco duro.
SRAM
Siglas de Static Random Access Memory, es un tipo de memoria que es más
rápida y fiable que la más común DRAM (Dynamic RAM). El término estática
viene derivado del hecho que necesita ser refrescada menos veces que la
RAM dinámica.
Los chips de RAM estática tienen tiempos de acceso del orden de 10 a 30
nanosegundos, mientras que las RAM dinámicas están por encima de 30, y
las memorias bipolares y ECL se encuentran por debajo de 10 nanosegundos.
Un bit de RAM estática se construye con un --- como circuito flip-flop que
permite que la corriente fluya de un lado a otro basándose en cual de los dos
transistores es activado. Las RAM estáticas no precisan de circuiteria de
refresco como sucede con las RAMs dinámicas, pero precisan más espacio y
usan mas energía. La SRAM, debido a su alta velocidad, es usada como
memoria caché.
DRAM
Siglas de Dynamic RAM, un tipo de memoria de gran capacidad pero que
precisa ser constantemente refrescada (re-energizada) o perdería su
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
contenido. Generalmente usa un transistor y un condensador para representar
un bit Los condensadores debe de ser energizados cientos de veces por
segundo para mantener las cargas. A diferencia de los chips firmware (ROMs,
PROMs, etc.) las dos principales variaciones de RAM (dinámica y estática)
pierden su contenido cuando se desconectan de la alimentación. Contrasta
con la RAM estática.
Algunas veces en los anuncios de memorias, la RAM dinámica se indica
erróneamente como un tipo de encapsulado; por ejemplo "se venden DRAMs,
SIMMs y SIPs", cuando deberia decirse "DIPs, SIMMs y SIPs" los tres tipos
de encapsulado típicos para almacenar chips de RAM dinámica.
Tambien algunas veces el término RAM (Random Access Memory) es
utilizado para referirse a la DRAM y distinguirla de la RAM estática (SRAM)
que es más rápida y más estable que la RAM dinámica, pero que requiere
más energía y es más cara
SDRAM
Siglas de Synchronous DRAM, DRAM síncrona, un tipo de memoria RAM
dinámica que es casi un 20% más rápida que la RAM EDO. SDRAM entrelaza
dos o más matrices de memoria interna de tal forma que mientras que se está
accediendo a una matriz, la siguiente se está preparando para el acceso.
SDRAM-II es tecnología SDRAM más rápida esperada para 1998. También
conocido como DDR DRAM o DDR SDRAM (Double Data Rate DRAM o
SDRAM), permite leer y escribir datos a dos veces la velocidad bús.
FPM: Siglas de Fast Page Mode, memoria en modo paginado, el diseño más
comun de chips de RAM dinámica. El acceso a los bits de memoria se realiza
por medio de coordenadas, fila y columna. Antes del modo paginado, era
leido pulsando la fila y la columna de las líneas seleccionadas. Con el modo
pagina, la fila se selecciona solo una vez para todas las columnas (bits)
dentro de la fila, dando como resultado un rápido acceso. La memoria en
modo paginado tambien es llamada memoria de modo Fast Page o memoria
FPM, FPM RAM, FPM DRAM. El término "fast" fué añadido cuando los más
nuevos chips empezaron a correr a 100 nanoseconds e incluso más.
EDO
Siglas de Extended Data Output, un tipo de chip de RAM dinámica que mejora
el rendimiento del modo de memoria Fast Page alrededor de un 10%. Al ser
un subconjunto de Fast Page, puede ser substituida por chips de modo Fast
Page.
Sin embargo, si el controlador de memoria no está diseñado para los más
rápidos chips EDO, el rendimiento será el mismo que en el modo Fast Page.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
EDO elimina los estados de espera manteniendo activo el buffer de salida
hasta que comienza el próximo ciclo.
BEDO (Burst EDO) es un tipo más rápido de EDO que mejora la velocidad
usando un contador de dirección para las siguientes direcciones y un estado
'pipeline' que solapa las operaciones.
PB SRAM
Siglas de Pipeline Burst SRAM. Se llama 'pipeline' a una categoría de
técnicas que proporcionan un proceso simultáneo, o en paralelo dentro de la
computadora, y se refiere a las operaciones de solapamiento moviendo datos
o instrucciones en una 'tuberia' conceptual con todas las fases del 'pipe'
procesando simultáneamente. Por ejemplo, mientras una instrucción se está
ejecutándo, la computadora está decodificando la siguiente instrucción. En
procesadores vectoriales, pueden procesarse simultáneamente varios pasos
de operaciones de coma flotante. (Tipos de Memoria RAM -
[Link], 2021)
Monitor
Evolución histórica
Los primeros días
La unidad de presentación visual o UDV, marcó los primeros días de los
monitores de ordenador. Estos UDV incluían una pantalla y un teclado
conectado a una computadora más grande por una conexión en serie. Debido
a que los UDV requieren una conexión a una computadora más grande, a
menudo se les llamó "terminales tontas". Las "terminales tontas" muestran
sólo texto en dos colores, por lo general negro y verde. El Apple II y las
primeras máquinas de juegos comenzaron a usar un monitor CRT de
televisión.
El CRT de IBM
En 1981, IBM lanzó la primera PC, también conocida como "computadora de
tres piezas", porque el monitor, el teclado y la CPU estaban separados, en
lugar de las computadoras anteriores donde en monitor estaba unido al
teclado. Con la introducción de la PC vino el adaptador de gráficos de color
(Color Graphics Adapter) de IBM, o CGA por su sigla en inglés, que permitía
cuatro colores. La CGA permitía una resolución de 320 x 200. En 1984, IBM
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
introdujo el adaptador de gráficos mejorado que admitía 16 colores y una
pantalla de 640 x 350 píxeles.
VGA
En 1987, IBM comenzó a ofrecer la matriz de gráficos de video (Video
Graphics Array) como parte de su nuevo sistema de computadora PS/2. La
tecnología de pantalla permitía 256 colores y una resolución de 640 x 480. A
pesar de la aparición de nuevas técnicas de visualización, el VGA se ha
convertido en un estándar de monitor de computadoras. De hecho, el VGA
quizás haya sido el impulsor de la industria moderna de juegos de ordenador
dado que la paleta de colores hizo posibles los gráficos. Hasta este punto, las
pantallas de ordenadores se limitaban a texto.
XGA y UXGA
En 1990, la pantalla del ordenador dio un salto cuántico con la disposición de
gráficos potenciada (Enhanced Graphics Array) o XGA. La XGA permite 16,8
millones de colores (con resolución 800 x 600), que ofrece el "color
verdadero" en comparación con la vista humana. El ojo humano puede
detectar 10 millones de colores diferentes. Los equipos actuales utilizan
disposición de gráficos ultra extendida (Ultra Extended Graphics Array) o
UXGA. UXGA (resolución 1600 x 1200) se utiliza comúnmente en los
monitores CRT de 21 y 22 pulgadas y en monitores LCD.
LCD
Aunque la CRT ha dominado las ventas de monitores de ordenador desde
1980, el aumento de pantallas de cristal líquido (LCD) casi ha eclipsado al
venerable CRT. Más de 20 años después de que RCA experimentó por
primera vez con las pantallas LCD en 1968, el precio de los nuevos monitores
se ha reducido, a la vez que han aumentado su tamaño. Desarrollado por
primera vez en las calculadoras y otras muestras de dispositivos pequeños,
los monitores LCD ahora miden 21 pulgadas o más. En 1990 comenzó la
popularidad de las pantallas LCD para ordenadores. En 1997 los monitores
LCD competían con los CRT. (La historia de los monitores de
computadoras | Techlandia, 2021)
Funciones
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
El monitor para su respectivo funcionamiento debe estar conectado a un
ordenador. El ordenador es el medio que suministra la información reflejada
en la pantalla del monitor de la computadora.
El trabajo principal del monitor de la computadora es la visualización,
mediante este dispositivo podemos crear, ver o editar en tiempo real las
órdenes que emitimos al ordenador o CPU.
Comúnmente para que el usuario tenga una mayor comodidad al momento de
proceder a utilizar el monitor de la computadora, utiliza otro hardware como lo
son el teclado y el mouse o ratón. (¿Cómo funciona un monitor de
computadora? | Techlandia, 2021)
Clases
Monitor CRT
Su tecnología hace que las imágenes pueden visualizarse en la pantalla a
través de diferentes haz de luz catódicos, los cuales se dirigen de manera
constante en contra de la pantalla que, además, se encuentra cubierta de
plomo y fósforo. Este último elemento es el encargado de reproducir la
imagen y el plomo se encarga de bloquear los rayos X para no afectar al
usuario.
Monitor LCD
Su pantalla es plana y delgada, está conformada por píxeles monocromos o a
color que se encuentran delante de la fuente reflectora.
Monitor TFT
Se trata de una variación entre el monitor LCD y el TFT que mejora la calidad
para el usuario, de hecho, muchos lo conocen como televisores, proyectores
o pantallas planas. Su tamaño varía de entre los 12 y 30 pulgadas, poseen
pantalla delgada y mejor resolución.
Monitor plasma
Se trata de un dispositivo con pantalla plana que generalmente se usa como
televisor, sus pulgadas van desde los 42 hasta los 80. Su calidad es
sumamente alta, así como el calor que general, por lo que no es
recomendable estar demasiado tiempo frente a ellos y tampoco es
recomendable usarlo como monitor gamer.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Monitor LED
Su composición está hecha por LED ‘s, mismos que permiten la distribución
de información, videos, datos e imágenes a los usuarios. Su emisión de luz es
derivada y tienden a confundirse con los dispositivos plasma o LCD. (¿Qué es
Monitor? » Su Definición y Significado [2021], 2021)
Fuente de poder
Evolución histórica
Se puede decir que nacieron junto al desarrollo de la Radio, durante la
primera cuarta parte del siglo XIX. Para entonces ya la Red de distribución
entregaba corriente alterna (Fue Westinghouse que impulsó la corriente
alterna, frente a la continua preconizada por Edison) que hace muy fácil el
cambio de la tensión, con la ayuda de los llamados Transformadores. Es casi
imposible saber quién y cuándo se construyeron las primeras. Posiblemente
serían ingenieros adscritos a alguna compañía eléctrica pionera, lo que sí es
seguro que utilizaba válvulas electrónicas (lámparas o tubos), por la sencilla
razón de que los transistores no existían todavía. Tan pronto éstos fueron
desarrollados, se les utilizó con ventaja en las fuentes. (Fuente de poder i
estabilizadores, 2021)
Funciones
El funcionamiento de una fuente de poder es simple: El dispositivo
proporciona corriente directa, gracias a una diferencia de potencial que se
lleva a cabo en sus bornes internos.
La fuente de poder convierte la corriente alterna en corriente directa, gracias
al uso de rectificadores, fusibles y demás componentes que regulan, filtran y
estabilizan la electricidad, para que pueda ser utilizada en el ordenador y sus
componentes, evitando averías.
La alimentación de la fuente tiene lugar mediante un cable trifásico, que va
desde la toma de corriente externa hacia el conector principal de la fuente y,
que luego, da salida a varios cables de corriente directa que van conectados a
los diferentes dispositivos del ordenador. (¿Cuál es la función de las fuentes
de poder? - Culturación, 2021)
Clases
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Fuente de poder genérica: En cuanto a este tipo se puede reconocer a esta
fuente por su muy bajo precio a comparación de las demás, es por ello que en
ocasiones se le puede encontrar por precios de hasta un 40 por ciento menos
que otras fuentes de poder, no obstante hay que aclarar que la calidad de las
mismas es bastante cuestionable y muy pocas veces generan la misma
potencia necesaria y menos las que muestran en sus especificaciones de
empaque.
Fuente de poder convencional: En cuanto a este tipo de fuentes de poder son
las que generalmente se instalan de manera regular en los computadores que
se venden en diversos locales departamentales por precios que rondan los 5
mil a los 10 mil pesos mexicanos, este tipo de fuente no son de mala calidad,
sin embargo ya se están considerando tecnología obsoleta por muchos
especialistas en el ámbito de la computación.
Fuente de poder Semimodular: Ahora bien, este tipo de fuentes de poder
tienden a marcan una diferencia al poder quitar y poner diversos cables de
alimentación en su salida, por lo cual tienen una mejor eficiencia en
comparación a otras, por ejemplo, con las fuentes convencionales era muy
común que solo se requirieran pocos cableados y por lo cual debías agrupar
todo los cables restantes en el interior del gabinete, pues bien las fuentes
semimodulares eliminaron esta costumbre y actualmente solo poseen el cable
de 24 pines soldado a su placa, por lo cual los cables pueden agregarse o
quitarse dependiendo de las necesidades que tengas con tu equipo de
computación.
Fuente de poder Modular: Este tipo de fuente de poder básicamente toman el
mismo concepto y características que las fuentes semimodulares, pero con
la importante diferencia en que recae que todos los cables pueden ser
colocados o retirados con absoluta libertad, lo cual da un extra de comodidad
y eficiencia a esta fuente de poder, pudiendo así regular la cantidad de
ponencia que recibe tu ordenador.
Fuente de Poder ATX: En cuanto a este tipo de fuente de poder se puede
decir que es la que permite el encendido y apagado de modo seguro de una
computadora, evitando así que existan cortos circuitos que dañen el equipo
de manera irreparable. Es muy importante debido a que ademas de
resguardar el equipo en cuanto a las características del pase de carga y por
supuesto a la correcta iniciación y suspensión de las funciones electrónicas
de la PC, su función mas importante es regular la cargas de la computadora
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
para así poder tener un ahorro de energía importante, encender digitalmente y
es adaptable en ordenadores con microprocesador a Intel Pentium MMX y en
modernos.
Fuente de Poder AT: en cuanto a esta fuente de poder se puede decir que se
coloca en la parte interior del gabinete del computador, y su función principal
se basa en la de recibir la corriente alterna que pasa a través del cableado
eléctrico y la convierte en una corriente directa, de esta manera alimenta a
todos los componentes de la computadora de forma homogénea y sin
sobrecargar ninguno de ellos, es por eso que es una de las mas comunes ne
los computadores hoy en día, sus características principales se basan en
ahorrar energía, encender de forma mecánica, poseer un puerto de tres
terminales y por ultimo ser una fuente de energía segura. (DIFERENTES
TIPOS DE FUNTES DE PODER EXISTENTES, 2021)
Impresora
Evolución histórica
La historia de la impresora se remonta a la creación de la primera
computadora, la máquina analítica de Charles Babbage. A pesar que el
inventor nunca logró construir su PC, sí terminó los planos en los que se
incluía el mecanismo de impresión.
Para 1953 se crea la primera impresora eléctrica para computadoras,
diseñada por Remington-Rand que solo era capaz de imprimir textos.
Impresora Matricial (matriz de punto)
En 1957 es puesta a la venta la primera impresora de matriz de punto
diseñada por IBM. Este sistema contenía una cabeza de impresión que se
desplaza de izquierda a derecha sobre la página imprimiendo por el impacto
de la cinta de tinta sobre le papel. Este sistema contaba con las mismas
limitaciones que su antecesor.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Primera mini impresora
En 1968 se lanzó la primera mini-impresora EP-101 con el mismo mecanismo
de matriz de punto. A partir de allí se deriva la marca EPSON una de las
marcas líderes en el mercado de impresión.
Impresora Láser
En el año 1971 el mundo de la impresión se revolucionó con el lanzamiento
de la primera impresora Láser diseñada por Gary Starkweather de Xerox
PARK, que constaba de un tambor unido a un depósito de y a un haz. Esta
innovación marcó la pauta ya que permitía imprimir no solo textos sino
también imágenes. Años después siguió la evolución con la introducción de
impresoras a color.
Nace la inyección de tinta
En 1976 se generó otro gran avance en la impresión cuando HP creo la
primera la impresora de inyección de tinta pensada para gigantografías y
también para hogares. Pero por lo complejo de la tecnología y la precisión en
el sistema de inyección, 12 años después llegó a manos de los consumidores
en hogares. La velocidad de impresión era tan solo de 2 pág. por minuto.
A través del tiempo, la tecnología láser se ha destacado ya que su calidad de
impresión supera a la impresión por, en términos de velocidad, rendimiento y
costos.
Hoy en día existen un gran número de marcas que ofrecen impresoras de
diversas tecnologías, funciones y costos que se adaptan a las necesidades de
los consumidores.
Actualmente estamos presenciando un nuevo hito en la historia de la
impresión con la aparición de las impresoras 3D, un propuesta impensable
años atrás que hoy es una realidad. (La Impresora y su evolución |
Maxiprint | Live & work in colors!, 2021)
Funciones
Las impresoras están diseñadas para ejecutar trabajos repetitivos de poco
suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no
necesitan virtualmente un tiempo de configuración para conseguir la copia de
un determinado documento. Las impresoras específicamente son dispositivos
lentos (10 páginas por minuto es considerado rápido), y el costo por página es
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
relativamente [Link] trabajos de mayor volumen existen las imprentas, que
cuentan con maquinaria que realiza la misma función que las impresoras pero
a un volumen mucho más alto, como por ejemplo la impresión de libros o
periódicos, estas maquinas imprimen miles de páginas por minuto. (FUNCION
DE LA IMPRESORA - La Magia De La Impresora, 2021)
Clases
Impresoras láser
Las impresoras láser se caracterizan por su elevada calidad de impresión,
velocidad y una relación coste por página muy económica. Su funcionamiento
es similar a una fotocopiadora. Un haz de luz se aplica sobre un tambor
electrostático que cambia la carga de la superficie y posteriormente la imagen
impregnada se transfiere al papel por contacto. En el mercado podemos
encontrar varios tipos de impresoras láser:
Impresoras láser monocromo
Estos dispositivos láser solo pueden imprimir en un color, que por norma
general suele ser el negro. Son muy rápidas y tienen un coste de impresión
muy bajo, por lo que son la opción ideal si tenemos un alto volumen de trabajo
mensual de documentos en blanco y negro.
Impresoras láser a color
Con las impresoras láser a color podemos realizar copias de alta calidad en
blanco y negro y también con colores nítidos y bien definidos. Se trata de
máquinas potentes y versátiles, por lo que es habitual encontrarlas en todo
tipo de negocios y hogares.
Impresoras láser multifunción
Auténticos centros de trabajo que nos permiten integrar una amplia variedad
de tareas en un solo aparato. Las impresoras láser multifunción, además de
imprimir, pueden incluir escáner, fotocopiadora, fax, lector de tarjetas SD,
puertos USB y otros elementos para mejorar su conectividad, como el
Bluetooth y el Wifi.
Impresoras de inyección de tinta
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Las impresoras inkjet o de inyección son habituales en hogares y pequeñas
oficinas que generan una cantidad pequeña de documentos al mes. Las tintas
son aplicadas directamente al papel con ayuda de unos inyectores,
obteniendo un resultado de gran calidad con una inversión inicial muy
económica. Al igual que en los modelos láser, podemos encontrar impresoras
de tinta a color o monocromas, así como multifnciones.
Impresoras de inyección monocromas
Si no vamos a imprimir documentos a color, las impresoras de tinta en blanco
y negro son una excelente opción para nuestra actividad. Silenciosas, rápidas
y con un estándar de calidad muy alto, reproduciendo caracteres nítidos y
bien definidos.
Impresoras de inyección a color
Este tipo de impresoras utilizan por norma general un cartucho para el negro y
otro para el color que contiene amarillo, cian y magenta, a partir de los cual se
puede imprimir cualquier color con una calidad fotográfica. Son perfectas si
tenemos que trabajar con mapas, imágenes y gráficos, proporcionándonos
más versatilidad en nuestra empresa.
Impresoras de inyección multifunción
La multifunción de tinta incluye opciones adicionales como escáner,
fotocopiadora, fax y mayor conectividad. Ahorramos espacio y consumo,
facilitando el acceso al equipo de trabajo y sin depender de los servicios de
terceros.
Impresoras 3D
Los equipos 3D han revolucionado el concepto de impresión, ya que permiten
imprimir todo tipo de objetos a partir de un diseño. Las aplicaciones son
múltiples: desde el campo de la medicina, con la construcción de prótesis y
otros elementos similares, a los sectores industriales que requieren piezas
específicas para su funcionamiento. (¿Qué tipos de impresoras existen? -
Mastertec, 2021)
Teclado
Evolución histórica
Primeros teclados
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric,
los primeros teclados solían ser un terminal de computadora que se
comunicaba por puerto serial con la computadora. Además de las normas de
teletipo, se diseñó un estándar de comunicación serie, según el tiempo de uso
basado en el juego de caracteres ANSI, que hoy sigue presente en las
comunicaciones por módem y con impresora (las primeras computadoras
carecían de monitor, por lo que solían comunicarse, o bien por luces en su
panel de control, o bien enviando la respuesta a un dispositivo de impresión).
Se usaba para ellos las secuencias de escape, que se generaban por
combinaciones entre teclas, siendo una de las más usadas la tecla Ctrl.
La llegada de la computadora doméstica trae una inmensa variedad de
teclados, tecnologías y calidades (desde los muy reputados por duraderos del
Dragon 32 a la fragilidad de las membranas de los equipos Sinclair), aunque
la mayoría de equipos incorporan la placa madre bajo el teclado, y es la CPU
o un circuito auxiliar (como el chip de sonido General Instrument AY-3-8910
en los MSX) el encargado de leerlo. Son casos contados los que recurren o
soportan comunicación serial (curiosamente es la tecnología utilizada en el
Sinclair Spectrum 128 para el keypad numérico). Solamente los MSX
establecerán una norma sobre el teclado, y los diferentes clones del TRS-80
seguirán el diseño del clonado.
Los teclados de IBM
Teclado XT (IBM 5150).
Teclado XT (IBM 5150).
Teclado AT.
Teclado AT.
El éxito de las computadoras personales de IBM en los años 1980 creó un
estándar imitado por gran parte de la industria, esta estandarización también
afectó a los teclados. Mientras que el teclado del IBM PC y la primera versión
del IBM AT no tuvo influencia más allá de los clónicos PC, el Multifunción II (o
teclado extendido AT de 101/102 teclas) aparecido en 1987 refleja y
estandariza de facto el teclado moderno.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Teclado XT de 83 teclas: se usaba en el PC XT (8086/88).
Teclado AT de 84 teclas: usado con los PC AT (286/386).
Teclado expandido de 101/102 teclas: es el teclado actual, con un mayor
número de teclas.
Con cuatro bloques diferenciados: un bloque alfanumérico con al menos una
tecla a cada lado de la barra espaciadora para acceder a símbolos
adicionales; sobre él una hilera de 10 o 12 teclas de función; a la derecha un
teclado numérico, y entre ambos grandes bloques, las teclas de cursor y
sobre ellas varias teclas de edición. Con algunas variantes este será el
esquema usado por los Atari ST, los Commodore Amiga (desde el
Commodore Amiga 500), los Sharp X68000, las estaciones de trabajo SUN y
Silicon Graphics y los Acorn Archimedes/Acorn RISC PC. Solamente los Mac
siguen con el esquema bloque alfanumérico + bloque numérico. Pero también
producen teclados extendidos AT, sobre todo para los modelos con emulación
PC por hardware. (Teclado (informática) - Wikipedia, la enciclopedia libre, 2021)
Funciones
El teclado de una computadora normalmente reúne teclas para letras
individuales, números, caracteres especiales, así como teclas funcionales
para comandos específicos.
Un teclado se conecta con la unidad central de procesamiento informático
mediante un cable o una conexión inalámbrica estilo Bluetooth.
All About Computer Parts reseña que el teclado es una de las partes más
importantes de la computadora, sin ellos no sería posible el ingreso de
comandos, texto, datos numéricos y otros tipos de datos con nada más que
pulsar una o varias teclas.
De hecho, los usuarios interactúan con la computadora a través de los
dispositivos de entrada más comunes como el teclado o el mouse, emiten
comandos o introducen datos que van al microprocesador; estos se
convierten en secuencias lógicas, se procesan y el sistema devuelve
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
instrucciones sobre otros dispositivos, cómputos, datos, imágenes, videos u
otras salidas. (Funciones básicas del teclado de la computadora |
Techlandia, 2021)
Clases
1. Teclado Convenciona
2. lTeclado Multimedia
3. Teclado Flexible
4. Teclado Ergonómico
5. Teclado Gamer
6. Teclado Virtual
7. Teclado Swyp
8. Teclado Predictivo
9. Teclado USB
10. Teclado Inalámbrico
11. Teclado PS/2
12. Teclado Qwerty
13. Teclado Alfabético
14. Teclado Dvora k
15. Teclado Colemak
16. Teclado Básico
17. Teclado Extendido
18. Teclado Numérico
19. Teclado para dispositivos Apple
20. Teclado de MacBook Pro con Touch Bar
21. Teclado para Windows
22. Teclado para celulares
23. Teclado para Joysticks (tipos de teclado 2021)
Mouse
Evolución histórica
El primer mouse
El primer inventor del MOUSE fue Douglas Engelbart en el año 1961.
Ante la base ancha y el cable largo que se asemejaba a la cola de un roedor,
decidieron llamarlo MOUSE (ratón en inglés).
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Fue un equipo de la Universidad de Stanford quienes desde un principio, ante
la base ancha y el cable largo que se asemejaba a la cola de un roedor,
decidieron llamarlo MOUSE (ratón en inglés).
el segundo MOUSE:
Este es el modelo Apple desktop creada y actualizada por Engelbart.
sus características son cuadrados y solo tienen un solo cuadro en la parte
superior.
su funcionamiento es igual al actual lo que cambia es el modelo.
El tercer MOUSE:
Pues parece que el mismo hombre siguió transformando este dispositivo,
Douglas Engelbart creó el dispositivo que cambió la historia de la PC.
es un dispositivo apuntador, generalmente fabricado en plástico. Se utiliza con
una de las manos del usuario y detecta su movimiento relativo en dos
dimensiones por la superficie plana en la que se apoya.
El cuarto MOUSE:
En las primeras pruebas del ratón probaron con una pelota grande y pesada y
aparatos con ejes centrales. Contaban con un panel bastante ligero que se
sostenía al lado de la pantalla y con un control movible para manejar las
cosas. Pero pronto comprobaron que en rapidez y precisión, aquello que
comenzaron a llamar ratón, se llevaba la palma. Así, el primer modelo
desarrollado por Engelbart y su compañero de faenas Bill English, fue
construido de forma artesanal con materiales tan simples como la madera o
una moneda, pero su funcionamiento es prácticamente idéntico al de los
ratones actuales.
es un elemento imprescindible en un equipo informático para la mayoría de
las personas, y pese a la aparición de otras tecnologías con una función
similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía
muchos años de vida útil. No obstante, en el futuro podría ser posible mover
el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.
El quinto MOUSE:
Con la combinación de soporte económico de AFOSR y SRI , el Dr. Engelbart
tuvo la posibilidad de desarrollar su investigación a tiempo completo este
modelo.
El Dr. Engelbart consideraba que la complejidad de los problemas
enfrentados por el ser humano habían crecido más rápido que la habilidad
para resolverlos.
En su reporte, Engelbart proporcionó al lector de una comprensión futurística
de la era de la computación. Él tuvo la visión de desarrollar un dispositivo
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
auxiliar que cumpla con estos objetivos, el trabajar con información en una
pantalla a través de él.
El sexto MOUSE:
El MOUSE, inventado por Douglas Engelbart en el Stanford Research center
en 1963, e impulsado por Xerox en 1970, es uno de los más grandes inventos
en la ergonomía de computadoras porque eso libra a los usuarios de la gran
proporción de uso de teclado.
controla el movimiento del cursor o apunta en una pantalla. Un MOUSE es un
objeto pequeño que se puede rodar a lo largo de una superficie sólida y plana.
Su nombre se deriva de su forma que se parece un poco a un ratón siendo la
cola el cable que se conecta con la computadora.
El MOUSE que ha quedado como estándar en la industria ha sido el de dos
botones principalmente, el izquierdo para ejecutar o seleccionar opciones y el
derecho que sirve como acceso directo a un menú dependiendo de la
aplicación en que se encuentre (evolucion del mouse - el mouse, 2021)
Funciones
la función principal del mouse es transmitir los movimientos de la mano sobre
una superficie plana hacia la computadora. Allí, el software denominado driver
o controlador se encarga realmente de transformarlo a un movimiento del
puntero por la pantalla dependiendo de parámetros varios.
Mouse o ratón
Muchas aplicaciones y sistemas operativos le ofrecen un gran ambiente
gráfico, en donde el ratón sirve como un dispositivo importante para
seleccionar y manipular objetos.
Un ratón es simplemente un dispositivo apuntador que controla el movimiento
del cursor. Cuando el ratón es empujado a lo largo de una superficie plana,
una pelota en reposo localizada por debajo gira, activando un circuito que
manda una corriente de información.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
La computadora traduce esta información a movimiento del cursor y la
posición del apuntador (la flecha gráfica) en la pantalla. Un ratón puede tener
de uno a tres botones en la parte superior, con cada botón ejecuta una
función en particular. La mayoría del tiempo se utiliza el botón izquierdo del
ratón para seleccionar opciones del menú y de ventanas de diálogo. Los
botones restantes pueden tener funciones que dependen del tipo de software
que este utilizando. (Uso de los componentes f�sicos de las
computadoras, 2021)
Clases
Clases de mouse según su mecanismo:
Ratón Mecánico.
Ratón Óptico.
Mouse Láser.
Ratón Ergonómico.
Mouse Multitáctil.
Ratón 3D.
Ratón de Portátil.
Mouse con Puntero Táctil.
Clases de mouse según su conexión:
Ratón Cableado.
Ratón Inalámbrico (Por Radiofrecuencia, Infrarrojo o Bluetooth) (¿Qué TIPOS
DE MOUSE de ordenador existen en la Actualidad?, 2021)
Tarjetas (Video, Sonido, red)
Evolucion historica
IBM y el origen de la Tarjeta de Video
tarjetas de video origen MDA coloresLa primera tarjeta gráfica fue
desarrollada por IBM en 1981, conocida como MDA (Monochrome Display
Adapter), trabajaba en modo texto y era capaz de representar 25 líneas de 80
caracteres en pantalla; contaba con una memoria RAM de video de 4 Kb, por
lo que sólo podía trabajar con una página de memoria. Se usaba con
monitores monocromáticos, de tonalidad normalmente verde y de ahí parte su
denominación. Durante años esta tarjeta fue tomada como el estándar en
tarjetas de video monocromo.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
tarjetas de video origen CGA
En 1981 llegaron también los primeros colores y gráficos con la CGA (Color
Graphics Adapter), ésta trabajaba tanto en modo texto como gráfico. En modo
texto representaba lo mismo que la MDA, pero el texto era menos legible
debido a que los caracteres se basaban en una matriz de puntos más
pequeña. En modo gráfico podía representar cuatro colores con una
resolución de 320×200 puntos. La CGA contaba con cuatro veces más
memoria que la MDA (16 Kb) y podía conectarse a monitores RGB que eran
capaces de emitir color.
En 1982 se desarrolló la HGC (Hércules Graphics Card) por Van Suwannukul,
fundador de Hercules Computer Technology. Sus posibilidades con respecto
de las anteriores eran abrumadoras puesto que además del modo texto, podía
gestionar dos páginas gráficas con una resolución de 720×348 puntos en
pantalla. Con ello combina la estupenda legibilidad en modo texto de la MDA
con las capacidades gráficas de la CGA, ampliando incluso la resolución; sin
embargo la tarjeta HGC no era capaz de mostrar color por pantalla por lo que
no llegó a estandarizarse como la CGA. La tarjeta Hércules tenía una
memoria de 643 Kb y no era totalmente compatible con las tarjetas de IBM.
En 1985 IBM presentó la EGA (Enhaced Graphics Adapter), ésta era
compatible con MDA y CGA; con una resolución de 640×350 puntos, se
podían representar 16 colores diferentes de una paleta de 64; también se
aumento la RAM de video hasta 256 Kb para tener espacio al representar
varias páginas gráficas como hacía la HGC
Tarjetas de Video y el salto cualitativo
En 1990 IBM desarrolló la VGA (Video Graphics Array) que tuvo una
aceptación masiva en el mercado, esto obligó a compañías como ATI, Cirrus
Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución
y el número de colores. Así nació el estándar SVGA (Super Video Graphics
Array), con dicho estándar se alcanzaron los 2 MB de memoria de vídeo, así
como resoluciones de 1024 x 768 puntos a 256 colores de una paleta de 262.
Supusieron un nuevo paso en la consecución de gráficos de alta calidad, son
ambas compatibles con las tarjetas anteriormente mencionadas y por lo tanto
el software desarrollado pudo ser utilizado sin problemas.
Tarjetas de Video 3D
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
La evolución de las tarjetas gráficas dio un giro importante en 1995 con la
aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3
y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero
incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con
una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-
Buffering, Antialiasing).A partir de ese punto, se suceden una serie de
lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de
NVIDIA.
La potencia alcanzada por dichas tarjetas fue tal que el puerto PCI donde se
conectaban se quedó corto. En 1997 Intel desarrolló el puerto AGP
(Accelerated Graphics Port) que solucionaría los cuellos de botella que
empezaban a aparecer entre el procesador y la tarjeta. El puerto AGP fue
suplantado luego por el PCI Express creado en 2003 por INTEL, IBM, DELL y
HP; PCI Express es actualmente el estándar adoptado por la industria.
Dominio de NVIDIA
Desde 1999, NVIDIA ha dominado el mercado de las tarjetas gráficas
(absorbiendo incluso a 3dfx) con su gama GeForce. En 1999, NVIDIA inventa
la GPU (Unidad de proceso gráfico), un procesador dedicado a tareas gráficas
que viene integrado en la tarjeta de video, este acontecimiento revolucionará
la industria de los gráficos. La primera tarjeta con GPU fue la GeForce 256
que era capaz de procesar más de 10 millones de polígonos por segundo, las
GPUs actuales pueden procesar más de 2000 millones de polígonos por
segundo.
En los años siguientes, las mejoras se enfocaron en el campo de los
algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las
memorias también necesitaban mejorar su velocidad, por lo que se
incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de
memoria de vídeo en la época pasan de los 32 Mb de GeForce, hasta los 64 y
128 Mb de GeForce 4.
Hasta el 2006, NVIDIA y ATI se repartieron el liderazgo del mercado con sus
series de chips gráficos GeForce y Radeon, respectivamente. En este año ATI
es comprada por la empresa AMD por U$D 5400 millones lo que la convierte
en la principal competidora de NVIDIA e INTEL.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Presente y futuro de las tarjetas gráficas
No hay duda tanto NVIDIA como AMD son las empresas que más ha
aportado al avance y la innovación en materia de dispositivos y procesadores
gráficos, y son actualmente los líderes del mercado en esta área. Sus
productos se encuentran en una variedad de dispositivos, desde las clásicas
PC, pasando por dispositivos móviles y servidores hasta consolas de video
juegos como la Play Station 4, entre otros.
Tan grande es su dominio en esta industria que revisar la historia reciente de
las tarjetas de video es también recorrer los avances que NVIDIA y AMD han
logrado en la industria. Por lo tanto, vale la pena mencionar algunos hitos
importantes:
2001, NVIDIA produce la primer GPU programable, la GeForce 3.
2004, NVIDIA lanza la tecnología SLI que permite combinar la potencia de
varias GPU en la mismas PC.
2006, NVIDIA presenta CUDA, una arquitectura revolucionaria de cálculo en
la GPU que permite a los científicos aprovechar la capacidad de
procesamiento en las GPU para resolver problemas computacionales
complejos.
2008, se construye TSUBAME, uno de los 500 super computadores más
rápidos del mundo y el primero basado en la GPU Tesla de NVIDIA.
2009, AMD introduce ATI Radeon HD 5970, la tarjeta gráfica más rápida en el
mundo hasta la fecha, diseñada para sustentar los juegos de PC más
demandantes.
2012, NVIDIA presenta la primera GPU virtualizada y la tecnología GRID
traslada por primera vez en la historia el procesamiento gráfico desde las
tarjetas a la nube.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
2014, AMD presentó la AMD Radeon R9 295X2, la tarjeta de video más
rápida y más potente del mundo, alimentada por dos GPU AMD Radeon Serie
R9 en una única tarjeta.
Y que podemos esperar en el futuro? desde el origen de la tarjeta de video
hasta el presente hemos visto un avance tecnológico exponencial, por lo que
podemos suponer que en poco tiempo veamos importantes logros respecto a
las tecnologías de Realidad Virtual, Realidad Aumentada, hologramas y
procesamiento gráfico en la nube, entre otros.
Las tarjetas de video han sido y son, uno de los principales componentes en
los PC, además han contribuido sustancialmente en la popularización de las
computadoras entre los usuarios finales, a la vez han logrado propulsar
mercados tan importantes como la producción de películas animadas y la
creación de juegos electrónicos entre otros. (Origen de la Tarjeta de Video,
2021)
Funciones
La tarjeta de sonido convierte la información en señales que pueden ser
usadas por unos parlantes y también convierte los sonidos en información que
puede ser usada por la computadora.
Las que vienen en los mainboards ofrecen el mínimo de calidad como para
escuchar y grabar aceptablemente. Para trabajos profesionales es necesario
instalar una tarjeta mejor adicional. La calidad con que oigamos el sonido
también depende de los altavoces… entre otras cosas.
La tarjeta de vídeo se encarga de convertir la información de la computadora
en señales que puedan ser usadas por el monitor. La calidad con que veamos
las imágenes depende más de la tarjeta de vídeo que del monitor. Tiene una
salida al exterior en la parte de atrás del CPU. Es ahí donde conectamos el
monitor.
Las que vienen incluidas en los mainboards sólo tienen ese conector,
mientras que las más avanzadas pueden tener más.
Las que añadimos tienen su propio procesador (GPU). Al incluirlas en nuestra
computadora, podemos contar con una mejor calidad de imagen
(imprescindible a veces para ciertos juegos) y realizar mejor tareas
relacionadas con gráficos (como crear imágenes 3D).
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
la tarjeta de red, con ella podemos conectar nuestra computadora a otras
para formar una red local (LAN en inglés, Local Area Network) o conectarnos
a un router, el cual nos permitirá a su vez conectarnos a la red de redes:
Internet. (Funcion tarjeta de video,red y sonido 2021)
Clases
TARJETA MADRE
La tarjeta madre o motherboard en una computadora es aquella que lleva
impresos los circuitos del aparato y permite la conexión entre el
microprocesador, los circuitos electrónicos de soporte, las ranuras de
memoria y otros dispositivos adicionales.
La placa base o tarjeta madre cumple funciones vitales para la computadora,
tales como la conexión física, la administración y distribución de energía
eléctrica, la comunicación de datos, la temporización y el sincronismo, el
control y monitoreo y otras.
Generalmente, la tarjeta madre lleva instalado un software básico llamado
BIOS que permite la ejecución de estas funciones.
TARJETA GRAFICA
Una tarjeta gráfica o tarjeta de video es un componente de un PC el cual está
diseñado para mostrar imágenes en alguno de los distintos medios de
visualización, normalmente un monitor, utilizando una gran variedad de
estándares de visualización. La mayoría de las tarjetas gráficas son
dispositivos independientes, conectado a la placa base a través de los buses
ISA, PCI, VESA o AGP y próximamente el PCI-Expess. Sin embargo, cada
vez más, se encuentran tarjetas gráficas integradas en la placa base, las
cuales realizan la misma función.
TARJETA DE SONIDO
Una tarjeta de sonido o placa de sonido es un dispositivo de hardware que
permite la entrada o salida de información en forma de sonido bajo el control
de un programa informático llamado controlador.
Se usa para realizar contenidos multimedia como videos, sonidos, juegos,
animaciones.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
A esta se pueden conectar altavoces, auriculares, micrófonos, instrumentos,
etc.
Estas se acomodan de acuerdo al uso de uno, esto quiere decir que hay
varios tipos de tarjetas de sonido, estas varían de acuerdo a su capacidad a
que manejo de sonido se puede hacer con ellas, calidad del sonido emitido y
potencia del sonido.
TARJETA CONTROLADORA IDE
Es una tarjeta para expansión que permite la conexión de varios tipos de
dispositivos internos IDE ("Integrated Device Electronic"), esto es discos duros
y unidades ópticas, así como disqueteras y ciertos puertos. Este tipo de
tarjetas integran uno o varios puertos para conectar los dispositivos externos
tales como el ratón, la impresora, el escáner, etc.
Actualmente las tarjetas controladoras IDE ya no se comercializan, debido a
que sus funciones han sido integradas en la tarjeta principal.
TARJETAS CONTROLADORAS SCSI
Es una tarjeta para expansión de capacidades que permite la conexión de
varios tipos de dispositivos internos SCSI ("Small Computer System
Interface"), esto es principalmente discos duros y puertos. . Este tipo de
tarjetas integran uno o varios puertos para conectar los dispositivos externos
tales como unidades lectoras de CD-ROM, escáneres y algunos tipos de
impresoras entre otros.
Actualmente se utilizan para la adaptación del estándar SCSI en la tarjeta
principal que carezca de este tipo de conectividad.
TARJETAS RED LAN
Se llama también comúnmente NIC”net interface card”. Es una tarjeta para
expansión de capacidades que tiene la función de enviar y datos por medio de
cables en las redes de área local, esto es entre redes de computadoras.
TARJETAS DE TV/RADIO FM
Es una tarjeta para expansión de capacidades que sirve para sintonizar las
estaciones de radio de la frecuencia FM y las emisoras televisivas libres y de
paga, así como capturar y guardar en formatos de audio y video específicos
en el disco duro de la computadora. La tarjeta TV/radio FM se inserta dentro
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
de las ranura de expansión o slot integradas en la tarjeta principal y se
atornilla al gabinete para evitar movimientos y por ende fallas. Este tipo de
tarjetas son muy variadas en sus tipos de puertos para conectar los
dispositivos externos, eso depende del modelo y pueden aceptar la conexión
de videocaseteras VHS, reproductores DVD, cable coaxial de la televisión de
paga, videocaseteras Betamax, etc.
TARJETAS DE RED INALAMBRICA
También llamadas tarjetas Wi-Fi, son tarjetas para expansión de capacidades
que sirven para enviar y recibir datos sin la necesidad de cables en las redes
inalámbricas de área local ("W-LAN "Wireless Local Area Network"), esto es
entre redes inalámbricas de computadoras. La tarjeta de red se inserta dentro
de las ranura de expansión o slot integradas en la tarjeta principal y se
atornilla al gabinete para evitar movimientos y por ende fallas. Todas las
tarjetas de red inalámbricas integran una antena de recepción para las
señales.
TARJETA DE EXPANSION
Es una serie de circuitos, chips y puertos integrados en una placa plástica, la
cual cuenta con un conector lineal diseñado para ser insertado dentro de una
ranura o slot especial de la tarjeta principal. Esta tarjeta tiene como función
aumentar las capacidades de la computadora en la que se instala (aumentar
la capacidad de proceso de video, permitir el acceso a redes, permitir la
captura de audio externa, etc.).
TARJETA PCI
La Interconexión de Componentes Periféricos, en inglés: Peripheral
Component Interconnect (PCI), es un bus estándar de computadoras para
conectar dispositivos periféricos directamente a la placa base. Estos
dispositivos pueden ser circuitos integrados ajustados en esta (los llamados
dispositivos planares en la especificación PCI) o tarjetas de expansión que se
ajustan en conectores. Es común en PC, donde ha desplazado al ISA como
bus estándar, pero también se emplea en otro tipo de computadoras.
Entre las tarjetas PCI encontramos:
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
PCI—USB
PCI—IDE
PCI—IEEE1394
PCI—Paralelo
PCI—RAID
PCI—SATA
PCI—Serie
PCI—SCSI
TARJETAS BRACKET
Se utilizan para dar salida al exterior a puertos de nuestro ordenador. Los hay
de bastantes tipos, pudiendo ser de un solo tipo o mixtos. En la imagen se
puede ver un bracket sata y otro mixto USB-firewire. También los hay, entre
otros, a puerto paralelo, serie, mixto serie-paralelo y conexión a puerto Game
o Midi (Tarjetas (Clasificacion de las Tarjetas) :: [Link] de
Software, 2021)
3.3.3 Realice una tabla comparativa donde especifique los requerimientos
mínimos y recomendados para los principales sistemas operativos Actuales.
R=/
WINDOWS LINUX MAC OS
Procesador: Procesador x86 a 700 Procesador: Intel 2,0
MHz. GHz o Intel 3,3
Procesador a 1 GHz o
más rápido o sistema Memoria RAM 512 Mb. RAM: 8GB o 16GB
en un chip (SoC)
Disco duro de Disco Duro:34GB
RAM: almacenamiento de 5
GB. Placa Gráfica:1.5GB o
1 GB para 32 bits o 2 4GB
GB para 64 bits Una tarjeta gráfica y un
monitor que puedan Entrada:Teclado
Espacio en disco duro: soportar una resolución Volante
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
16 GB para un SO de de 1024 x 768. Unidad Óptica*:DVD
32 bits o 32 GB para
un SO de 64 bits Lector de DVD y/o
puerto USB.
Tarjeta gráfica:
Una buena conexión a
DirectX 9 o posterior Internet
con un controlador
WDDM 1.0
Pantalla:
800x600
3.3.4 Realice un resumen de los conceptos principales de la computación en
la nube.
R=/ ¿Qué es computación en la nube?
La computación en la nube (o cloud computing, en inglés) es una tecnología
que permite acceder remotamente, de cualquier lugar del mundo y en
cualquier momento, a softwares, almacenamiento de archivos y
procesamiento de datos a través de Internet, sin la necesidad de conectarse a
un ordenador personal o servidor local.
En otras palabras, la computación en la nube utiliza la conectividad y gran
escala de Internet para hospedar los más variados recursos, programas e
información, y permite que el usuario ingrese a ellos través de cualquier
ordenador, tablet o celular.
Si todavía no quedó claro, déjame ejemplificarlo: si alguna vez editaste un
documento en Google Docs, escuchaste música en Spotify o viste una
película en Netflix, tuviste contacto directo con la computación en la nube.
Todos ellos son servicios online que no demandan la descarga, instalación y
acceso de ningún tipo de software o archivo en tu ordenador. Solo necesitas
un navegador y una buena conexión a Internet para utilizarlos.
¿Para qué sirve la computación en la nube?
Si analizamos el modelo tradicional de computación, en el que los usuarios y
las empresas necesitan invertir en downloads, hardwares, sistemas
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
operativos y softwares para lograr ejecutar algún tipo de aplicación, es fácil
entender por qué el cloud computing se volvió tan popular.
La nube surgió como una forma de democratizar la información y mejorar la
experiencia de quienes dependen de recursos tecnológicos a nivel personal o
profesional.
El cloud computing trajo consigo innumerables ventajas. Optar por un servicio
en nube permite:
La reducción de costos con infraestructura: ya que elimina el gasto capital con
compras de hardwares y softwares, instalación y manutención;
La economía de espacio: dado que los recursos permanecen almacenados
online;
La centralización de la información: evitando que todos los datos se
mantengan en distintos programas, con diferentes tipos de autenticación y
formas de acceso;
El aumento o disminución acorde con la necesidad del cliente: gracias al
poder de elasticidad que proporciona la cantidad ideal de recursos,
almacenamiento y procesamientos;
El trabajo remoto: funcionarios de empresas pueden acceder a todos los
datos a través de cualquier ordenador, notebook, tablet o smartphone, desde
que estén conectados a Internet.
Aparte, podemos citar la calidad de la seguridad, la actualización automática
del servidor, la usabilidad de las plataformas, los servicios de asistencia
técnica y backups.
En medio a tantos beneficios, la computación en la nube se transformó en la
opción favorita de gran parte de las empresas y usuarios en general. No en
vano, prácticamente todo lo que consumimos actualmente en Internet —
redes sociales, almacenamiento de archivos, streaming de video y música —
proviene de aplicaciones y servicios hospedados en la nube.
¿Cómo funciona la computación en la nube?
El cloud computing utiliza un servidor remoto para conectar los dispositivos de
los usuarios a recursos centralizados. Un servidor remoto almacena todos los
datos y programas que necesitas, y puede estar en tu propio país o al otro
lado del mundo, por ejemplo, en Japón. El hecho es que logras accederlos
por Internet, desde cualquier lugar, aunque estén almacenados a kilómetros
de distancia.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Hay 3 tipos de computación en la nube: la pública, la privada y la híbrida. Si
tienes una empresa y piensas utilizar un servicio en la nube, ten en mente que
la elección dependerá de factores relacionados con el costo, la disponibilidad,
el rendimiento y las expectativas. A continuación, verás cómo cada nube
funciona:
Nube pública
Son recursos computacionales, como servidores y almacenamiento, provistos
por un tercero y disponibles a cualquier persona o empresa que desee
contratarlos. En este modelo, el cliente se responsabiliza por lo que será
enviado a la nube, sea una copia de seguridad, una aplicación o algunos
archivos, mientras el proveedor de la nube se preocupa por la manutención, la
seguridad y la gestión de todos los recursos.
En la nube pública, todo está disponible en la web y se comparte entre varios
usuarios que usan de manera simultánea (pero por separado), lo que hace
que los recursos se mantengan estandarizados.
Por ofrecer soluciones unificadas, este modelo acaba siendo más económico.
Por lo tanto, la nube pública es indicada para los negocios que quieren
ahorrar en la inversión.
Nube privada
En este modelo, la empresa mantiene la infraestructura de la nube en su
dominio interno y ofrece acceso restringido a usuarios seleccionados, como
funcionarios y socios.
La nube privada ofrece a la empresa la posibilidad de personalizar las
funciones y el soporte a sus necesidades. Como la nube está diseñada
exclusivamente para ella, todos los procesos se dirigen a la realidad del
negocio.
En general, la nube privada es usada por organizaciones que deben seguir
ciertas regulaciones y normas específicas sobre seguridad y privacidad de
datos y de información, como es el caso de algunas instituciones financieras y
gubernamentales.
Nube híbrida
Por último, cuando hablamos de la nube híbrida, nos referimos a la unión de
las dos anteriores, es decir, la combinación que permite que compartan datos
y aplicaciones entre ellas. Siendo así, acorde con la necesidad y la estrategia
del negocio, algunos recursos se utilizan privadamente, otros se utilizan
públicamente o se enlazan mediante tecnologías.
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
¿De qué servicios la computación en la nube dispone?
Actualmente, la computación en la nube ofrece una amplia variedad de
servicios, herramientas y funcionalidades para atender las necesidades de las
empresas. Entre las principales ofertas, se destacan 3 modelos:
SaaS (Software como servicio)
El SaaS permite acceder a un software sin comprar su licencia, utilizándolo
gratuitamente desde la nube, muchas veces con recursos limitados.
Sin embargo, también existen planes de pago en los que se cobra una tasa
fija, un valor que varía según el uso o incluso sin costo, si el recurso ofrece
propagandas u otra forma de monetización.
En este formato, la empresa accede al software por Internet, sin la necesidad
de preocuparse con la instalación, configuración e inversión en licencias.
Muchos CRMs y ERPs funcionan a través del SaaS. Servicios de email y
otras aplicaciones públicas, como Skype, Whatsapp, LinkedIn y Facebook
también trabajan con este tipo de modelo, por eso, se trata del mecanismo
más popular.
PaaS (Plataforma como servicio)
En este modelo de nube, se contrata un ambiente completo de desarrollo on
demand, en el que es posible crear, modificar y optimizar softwares y
aplicaciones.
La ventaja del modelo PaaS es que incluye sistemas operativos, herramientas
de desarrollo, sistemas de gestión de bases de datos, servicios de Business
Intelligence y muchos otros recursos, además de toda la infraestructura
necesaria para ejecutar o perfeccionar aplicaciones web o móviles.
El equipo de desarrollo sólo tiene que preocuparse por la programación de la
aplicación, ya que la administración, la manutención y la actualización de la
infraestructura quedan a cargo del proveedor.
IaaS (Infraestructura como servicio)
En el modelo IaaS, se alquilan recursos de infraestructura, como servidores,
routers, racks, datacenters, hardware y demás herramientas que posibilitan la
transmisión y el almacenamiento de datos.
Dependiendo del proveedor y del modelo que se elige, la empresa puede ser
cobrada, por ejemplo, por el número de servidores utilizados y por la cantidad
de datos almacenados o traficados. En el modelo IaaS, se utiliza lo que es
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
necesario según la demanda de la empresa y se paga solamente lo que se
usa.
La gran ventaja de este modelo es su escalabilidad. Después de todo, en un
mes, puedes requerir algunos servidores virtuales donde almacenarás pocos
datos y tendrás poco tráfico, mientras que, al mes siguiente, puedes pedir el
doble de recursos.
Así, el mecanismo funciona como la contratación de un servicio de TV por
cable, es posible cancelarlo, aumentarlo o reducirlo en cualquier momento
(Grapsas and Grapsas, 2021
3.4 Actividades de transferencia del conocimiento.
3.4.1 Utilizando un programa de virtualización, realice un manual paso a
paso del proceso de instalación de 2 clientes uno Windows y otro Linux.
Incluyendo todos los drivers necesarios, antivirus, office, compresor, y lo
necesario para trabajar correctamente.
MANUALA DE WINDOWS XP MANUAL DE DEBIAN
MANUAL PASO A MANUAL PASO A
PASO DE WINDOSW [Link] PASO DE DEBIAN [Link]
3.4.2 Utilizando un programa de virtualización, realice un manual paso a
paso del proceso de instalación de 2 Servidores uno Windows y otro Linux
MANUAL WINDOWS SERVER 2019
MANUAL PASO A
PASO DE SERVER [Link]
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
CONCLUSIÓN
En esta guía identifique las diferescia de sistema operartivos mono tareasy
multi tareas también la evolución histórica de los sistemas operativos móviles
y hize una tabla [Link] evolución histórica, funciones, clases,
para los siguientes partes:Tarjeta Madre,Microprocesador, BIOS ,Disco Duro
Unidades Óptica, Memoria RAM, Monitor , Fuentes de Poder , Impresoras y
Teclado y aprendí a realizar maquinas virtuales y realice un manualde cada
uno,
REFERENCIAS BIBLIOGRAFICAS
Ordoñez, H., Ordoñez, H. and perfil, V., 2021. Sistemas operativos, monotarea,
multitarea, monousuario y multiusuario..
[Link]
Grapsas and Grapsas, T., 2021. ¿Qué es cloud computing o computación en la
nube? Conoce el concepto. [Link]
[Link]. 2021. Evolución de la placa base.
[Link]
Foro Tecnico. 2021. ¿Cuál es la función de la Tarjeta Madre? - CAVSI.:
[Link]
Profesional Review. 2021. ▷ Tipos de placas base: AT, ATX, LPX, BTX, Micro ATX y
Mini ITX [Link]
[Link]. 2021. Microprocesador - Wikipedia, la enciclopedia libre.
[Link]
Profesional Review. 2021. ▷ Qué es un procesador y cómo funciona.
[Link]
[Link]. 2021. Tipos de microprocesadores actuales - Jose Manuel Box.
[Link]
sactuales
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Timetoast. 2021. Evolución de BIOS timeline..
[Link]
Trustnet. 2021. ¿Qué es y para qué sirve la BIOS? -
[Link]
Internet Paso a Paso. 2021. 【 BIOS del ORDENADOR 】¿Qué Es? + Tipos ▷ 2021
[Link]
[Link]. 2021. Evolución de Disco Duro - Linea de Tiempo del Disco Duro.
[Link]
Administración de Redes. 2021. Disco Duro | Características, Funciones, Tipos De
Interfaces [Link]
Loyvan Servicios Empresariales. 2021. ¿Cuáles son las clases de discos duros que
existen? - Loyvan Servicios Empresariales.
[Link]
existen
[Link]. 2021. Historia de los medios de almacenamiento óptico - Wikipedia,
la enciclopedia libre.
[Link]
perfil, V., 2021. UNIDADES ÓPTICAS. [Link].
[Link]
[Link]. 2021. Tipos de unidades Opticas , discos caracterIsticas y
capacidades .:: [Link]
[Link]
[Link]. 2021. Historia de la Memoria Ram - LineadetiempoMemoriaRam.
[Link]
[Link]. 2021. Informática Básica: Memoria RAM y disco duro.
[Link]
[Link]. 2021. Tipos de Memoria RAM - [Link].
[Link]
Techlandia. 2021. La historia de los monitores de computadoras | Techlandia.
[Link]
Techlandia. 2021. ¿Cómo funciona un monitor de computadora? | Techlandia.
[Link]
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
Concepto de - Definición de. 2021. ¿Qué es Monitor? » Su Definición y Significado
[2021] [Link]
[Link]. 2021. Fuente de poder i estabilizadores.
[Link]
Culturación. 2021. ¿Cuál es la función de las fuentes de poder? - Culturación.
[Link]
Te confirmamos si tu sistema operativo aguanta un software. 2021. DIFERENTES
TIPOS DE FUNTES DE PODER EXISTENTES. [Link]
tecnologia/tipos-de-fuentes-de-poder/#Tipos_de_Fuentes_de_Poder.
[Link]. 2021. La Impresora y su evolución | Maxiprint | Live & work in
colors!. [Link]
[Link]. 2021. FUNCION DE LA IMPRESORA - La Magia De La
Impresora. [Link]
impresora
Mastertec. 2021. ¿Qué tipos de impresoras existen? - Mastertec.
[Link]
[Link]. 2021. Teclado (informática) - Wikipedia, la enciclopedia libre.
[Link]
Techlandia. 2021. Funciones básicas del teclado de la computadora | Techlandia.
[Link]
[Link]. 2021 [Link]
[Link]. 2021. evolucion del mouse - el mouse.
[Link]
[Link]. 2021. Uso de los componentes fisicos de las computadoras.
[Link]
Dispositivo de Entradas. 2021. ¿Qué TIPOS DE MOUSE de ordenador existen en la
Actualidad?. [Link]
[Link]. 2021. Origen de la Tarjeta de Video.
[Link]
2021. [Link]
GC-F -005 V. 01
Evidencia ArquitecturaPCySnO
[Link]. 2021. Tarjetas (Clasificacion de las
Tarjetas) :: [Link] de Software: [Link]
[Link]/expociciones/tarjetas-clasificacion-de-las-tarjetas/
Timetoast. 2021. Historia de Sistemas Operativos Móviles
[Link]
GC-F -005 V. 01