TEMA 2 MEMORIAS
Materia: Arquitectura de Computadoras
Horario: 15 – 16 Hrs.
Semestre: 5°
INSTITUTO TECNOLÓGICO DE ORIZABA
INSTITUTO TECNOLOGICO DE ORIZABA
TECNOLOGICO NACIONAL DE MEXICO
ORIZABA, VERACRUZ
PROGRAMA EDUCATIVO
INGENIERÍA INFORMÁTICA
ASIGNATURA
4a2A ARQUITECTURA DE
COMPUTADORAS
HORARIO
15 - 16
DOCENTE
M.A.F.O. FABIOLA GONZÁLES RODRÍGUEZ
TEMA 2 MEMORIAS
INVESTIGACIÓN (TRABAJO FORMAL)
PRESENTA
MOISES MARTÍNEZ FLORES
RODRÍGUEZ RODRÍGUEZ JAIR
MARAÑÓN MAXIMILIANO RAMON
RODRÍGUEZ VERA MARÍA FERNANDA
SEMESTRE
5°
FECHA DE ENTREGA
17 DE SEPTIEMBRE DE 2021
PERIODO ESCOLAR AGOSTO - DICIEMBRE 2021
INDICE
Tema 2: Memorias
Índice ------------------------------------------------------------- Pág. 1
Introducción ----------------------------------------------------- Pág. 2
Contenido general --------------------------------------------- Pág. 4
Subtemas
2.1. Organización básica ---------------------------- Pág. 4
2.2. Acceso a los datos y temporización -------- Pág. 10
2.3. Tipos de memorias ------------------------------ Pág. 23
Conclusión ------------------------------------------------------- Pág. 27
Bibliografía ------------------------------------------------------- Pág. 29
ARQUITECTURA DE COMPUTADORAS P á g i n a 1 | 29
INTRODUCCION
En informática, la memoria (también llamada almacenamiento) se refiere a los
componentes de una computadora, dispositivos y medios de almacenamiento que
retienen datos informáticos durante algún intervalo de tiempo. Las memorias de
computadora proporcionan unas de las principales funciones de la computación
moderna, la retención o almacenamiento de información. Es uno de los componentes
fundamentales de todas las computadoras modernas que, acoplados a una unidad
central de procesamiento (CPU por su sigla en inglés, central processing unit),
implementa lo fundamental del modelo de computadora de Von Neumann, usado desde
los años 1940. En la actualidad, memoria suele referirse a una forma de almacenamiento
de estado sólido conocido como memoria RAM (memoria de acceso aleatorio, RAM
por sus siglas en inglés random access memory) y otras veces se refiere a otras formas
de almacenamiento rápido pero temporal. De forma similar, se refiere a formas de
almacenamiento masivo como discos ópticos y tipos de almacenamiento magnético
como discos duros y otros tipos de almacenamiento más lentos que las memorias RAM,
pero de naturaleza más permanente. Estas distinciones contemporáneas son de ayuda
porque son fundamentales para la arquitectura de computadores en general. Además,
se refleja una diferencia técnica importante y significativa entre memoria y dispositivos
de almacenamiento masivo, que se ha ido diluyendo por el uso histórico de los términos
"almacenamiento primario" (a veces "almacenamiento principal"), para memorias de
acceso aleatorio, y "almacenamiento secundario" para dispositivos de almacenamiento
masivo. Esto se explica en las siguientes secciones, en las que el término tradicional
"almacenamiento" se usa como subtítulo por conveniencia.
ARQUITECTURA DE COMPUTADORAS P á g i n a 2 | 29
Una unidad de memoria es un conjunto de celdas de almacenamiento junto con
los circuitos asociados que se necesitan para ingresar y sacar la información de
almacenamiento. La memoria almacena información binaria en grupos de bits que se
denominan palabras. Una palabra en la memoria es una entidad de bits que se introducen
o se sacan del almacenamiento como una unidad. Una palabra de memoria es un grupo
de números 1 y 0 que puede representar un número, un código de instrucción, uno o más
caracteres alfanuméricos o cualquier otra información en código binario. La mayor parte
de las memorias de las computadoras utilizan palabras cuyo número de bits es un
múltiplo de8, por lo tanto, una palabra de 16 bits contiene dos bytes, y una palabra de 32
bits está formada de cuatro bytes. La capacidad de las memorias en las computadoras
comerciales por lo general se define como la cantidad total de bytes que pueden
almacenarse.
La estructura interna de una unidad de memoria está especificada por el número
de palabras que contiene y la cantidad de bits en cada palabra. Unas líneas especiales
de entrada, llamadas líneas de direccionamiento, seleccionan una palabra particular. A
cada palabra en la memoria se le asigna un número de identificación, llamado una
dirección, que comienza en cero y continua con 1, 2, 3, hasta 2k-1 donde k es la cantidad
de líneas de dirección. Se selecciona una palabra específica en la memoria, al aplicar la
dirección binaria de k bits a las líneas de dirección.
Se utilizan dos tipos principales de memoria en los sistemas de computadoras:
memoria de acceso aleatorio RAM (random-acces memory), y memorias de sólo
lectura ROM (read-only memory).
ARQUITECTURA DE COMPUTADORAS P á g i n a 3 | 29
CONTENIDO GENERAL
2.1 Organización Básica
Las memorias se pueden clasificar atendiendo a diferentes criterios.
Método de acceso
🔺 Acceso aleatorio (RAM): acceso directo y tiempo de acceso constante e
independiente de la posición de memoria.
👤 Acceso secuencial (SAM): tiempo de acceso dependiente de la posición de
memoria.
🔻 Acceso directo (DAM): acceso directo a un sector con tiempo de acceso
dependiente de la posición, y acceso secuencial dentro del sector.
Soporte físico
⭐ Semiconductor
⭐ Magnéticas
⭐ Ópticas
⭐ Magneto-ópticas
ARQUITECTURA DE COMPUTADORAS P á g i n a 4 | 29
Alterabilidad
🍂 RAM: lectura y escritura
Descripción y características – Es una memoria que se utiliza para el
almacenamiento temporal de instrucciones o de datos. Así mismo, la RAM se
conoce como una memoria de escritura y lectura, ya que se lee o escriben datos
de esta clase en la memoria. Se destaca por ser una memoria volátil. Finalmente,
hay dos tipos que son, RAM dinámica (DRAM) y RAM estática (SRAM). Su
capacidad promedio actual es de entre 4 a 16 GB.
Aplicaciones – Es una memoria de acceso aleatorio para la lectura y escritura de
datos, entre más amplia mayor es el rendimiento del PC. Aquí se guardan
procesos temporales, modificaciones de archivos o instrucciones para que se
ejecuten aplicaciones instaladas en el equipo. Se usa constantemente por el
microprocesador al acceder a ella para guardar o buscar e manera temporal
información.
🍂 ROM (Read 0nly Memory): Son memorias de sólo lectura. Existen diferentes
variantes:
🍂 ROM programadas por máscara, cuya información se escribe en el proceso de
fabricación y no se puede modificar.
ARQUITECTURA DE COMPUTADORAS P á g i n a 5 | 29
Descripción y características – La memoria ROM o Read Only Memory, es un
tipo de memoria que es sólo de lectura, destacando que en la mayoría de los
casos no se van a poder modificar ya que la escritura se encuentra prohibida. Esta
incorporada a la placa base y cuenta con las instrucciones para dar inicio a la
BIOS. Es una memoria de tipo secuencial, así que todos los datos se deben
recorrer hasta que se ubique la información que se necesita, lo que la diferencia
de la RAM en donde el trabajo es aleatorio y por ende el acceso es específico y
directo.
Aplicaciones – Como se ha indicado es la que permite el inicio de la BIOS que
asume la tarea de guiar el arranque de la computadora, de inspeccionar el sistema
para corroborar los componentes que funcionan o verificar el estado del hardware.
🍂 PROM, o ROM programable una sola vez. Utilizan una matriz de diodos cuya unión
se puede destruir aplicando sobre ella una sobretensión.
Descripción y características – Se trata de una memoria digital en la que el valor
de cada bit, va a depender del estado de un fusible, el cual se puede quemar tan
solo una vez. Es debido a lo anterior que esa es una memoria que sólo se puede
programar en una ocasión para que los datos se puedan escribir.
ARQUITECTURA DE COMPUTADORAS P á g i n a 6 | 29
Aplicaciones – Es un tipo de memoria que se usa para que se graben datos
permanentes en una cantidad menor a las ROM o si los datos es necesario que
cambien en muchos o todos los casos.
🍂 EPROM (Erasable PROM) o RPROM (Reprogramable ROM), cuyo contenido
puede borrarse mediante rayos ultravioletas para volverlas a escribir.
🍂 EAROM (Electrically Alterable ROM) o EEROM (Electrically Erasable ROM), son
memorias que están entre las RAM y las ROM ya que su contenido se puede volver a
escribir por medios eléctricos. Se diferencian de las RAM en que no son volátiles
ARQUITECTURA DE COMPUTADORAS P á g i n a 7 | 29
🍂 Memoria FLASH. Utilizan tecnología de borrado eléctrico al igual que las EEPROM,
pero pueden ser borradas y reprogramadas en bloques, y no palabra por palabra como
ocurre con las tradicionales EEPROM. Ofrecen un bajo consumo y una alta velocidad de
acceso, alcanzando un tiempo de vida de unos 100.000 ciclos de escritura
Volatilidad con la fuente de energía
💧 Volátiles: necesitan la fuente de energía para mantener la información.
💧 No volátiles: mantienen la información sin aporte de energía.
Duración de la información
🎈 Estáticas: el contenido permanece inalterable mientras están polarizadas.
🎈 Dinámicas: el contenido sólo dura un corto período de tiempo, por lo que es necesario
refrescarlo (reescribirlo) periódicamente.
ARQUITECTURA DE COMPUTADORAS P á g i n a 8 | 29
Proceso de lectura
Lectura destructiva: necesitan reescritura después de una lectura.
Lectura no destructiva
Jerarquía de las unidades de memoria de un computador
ARQUITECTURA DE COMPUTADORAS P á g i n a 9 | 29
2.2. Acceso a los datos y temporización
TEMPORIZACIÓN
Reloj del sistema
El reloj de una computadora se utiliza para dos funciones principales:
1. Para sincronizar las diversas operaciones que realizan los diferentes
subcomponentes del sistema informático.
2. Para saber la hora.
El reloj físicamente es un circuito integrado que emite una cantidad de pulsos por
segundo, de manera constante. Al número de pulsos que emite el reloj cada segundo se
llama Frecuencia del Reloj.
La frecuencia del reloj se mide en Ciclos por Segundo, también llamados Hertzios, siendo
cada ciclo un pulso del reloj. Como la frecuencia del reloj es de varios millones de pulsos
por segundo se expresa habitualmente en Megahercios.
El reloj marca la velocidad de proceso de la computadora generando una señal periódica
que es utilizada por todos los componentes del sistema informático para sincronizar y
coordinar las actividades operativas, evitando el que un componente maneje unos datos
incorrectamente o que la velocidad de transmisión de datos entre dos componentes sea
distinta.
ARQUITECTURA DE COMPUTADORAS P á g i n a 10 | 29
Cuanto mayor sea la frecuencia del reloj mayor será la velocidad de proceso de la
computadora y podrá realizar mayor cantidad de instrucciones elementales en un
segundo.
El rango de frecuencia de los microprocesadores oscila entre los 4,77 megahercios del
primer PC diseñado por IBM y los 200 megahercios de las actuales computadoras
basadas en los chips Intel Pentium.
En máquinas de arquitectura Von Neumann la mayoría de las operaciones son
serializadas, esto significa que la computadora ejecuta los comandos en un orden
preestablecido. Para asegurarnos de que todas las operaciones ocurren justo en el
tiempo adecuado, las máquinas 80x86 utilizan una señal alternante llamada el reloj del
sistema.
En su forma básica, el reloj del sistema maneja toda la sincronización de un sistema
de cómputo. El reloj del sistema es una señal eléctrica en el bus de control que alterna
entre los valores de cero y uno a una tasa dada. La frecuencia en la cual el reloj del
sistema alterna entre cero y uno es llamada frecuencia del reloj de sistema. El tiempo
que toma para cambiar de cero a uno y luego volver a cero se le llama periodo de reloj,
también llamado ciclo de reloj. La frecuencia del reloj es simplemente el número de ciclos
de reloj que ocurren en un segundo, en sistemas actuales, este valor excede los 200
ciclos por segundo, siendo ya común frecuencias del orden de los 366 MHz. (Mega Hertz,
que equivale a un millón de ciclos por segundo). Observe que el periodo de reloj es el
valor inverso de la frecuencia, por lo tanto, para un sistema de 200 MHz el periodo es
igual a 5 nanosegundos. Para asegurar la sincronización, el CPU inicia una operación ya
ARQUITECTURA DE COMPUTADORAS P á g i n a 11 | 29
sea en el flanco ascendente (cuando la señal cambia de cero a uno) ó en el descendente
(cuando la señal cambia de uno a cero). Como todas las operaciones de un CPU están
sincronizadas en torno a su reloj, un CPU no puede ejecutar operaciones más rápido que
la velocidad del reloj.
Acceso a memoria y el reloj del sistema
El acceso a memoria es probablemente la actividad más común de un CPU, se trata
en definitiva de una operación sincronizada al reloj del sistema, esto es, la lectura o
escritura no puede ser más rápida que un ciclo de reloj, de hecho, en muchos sistemas
80x86 el acceso a memoria toma varios ciclos de reloj. El tiempo de acceso a memoria
es el número de ciclos de reloj que el sistema necesita para acceder a una ubicación de
memoria, este es un valor importante ya que a mayor número de ciclos menor
desempeño. El tiempo de acceso a memoria es la cantidad de tiempo que transcurre
desde que se solicita una operación (sea de lectura o escritura) y el tiempo en que la
memoria completa dicha operación. En procesadores de 5 MHz (80x88, 80x86) el tiempo
de acceso a memoria es de aproximadamente 800 ns. (nanosegundos), en cambio, un
procesador de 50 MHz (80x486) el tiempo es de aproximadamente 20 ns. El tiempo de
acceso a memoria en el procesador 80x486 es casi 40 veces más rápido que en el caso
del procesador 80x86 porque éste último consume más ciclos de reloj para el acceso a
memoria además del incremento en la velocidad de reloj.
Los dispositivos de memoria presentan varias características, pero las principales son
su capacidad de almacenamiento y el tiempo de acceso. Una memoria de acceso
aleatorio (RAM) típica tiene una capacidad de 16 o más megabytes y un tiempo de
ARQUITECTURA DE COMPUTADORAS P á g i n a 12 | 29
acceso de 70 nanosegundos o menos, con estos datos seguramente se estará
preguntando cómo es posible que estas memorias relativamente lentas trabajan en
procesadores mucho más rápidos. La respuesta son los estados de espera. Un estado
de espera es una señal que se coloca en el bus de control por parte del dispositivo de
memoria para detener temporalmente el trabajo realizado por el CPU, como
consecuencia utilizar uno o más estados de espera tiene el mismo efecto que reducir
proporcionalmente la velocidad de reloj, obviamente introducir estados de espera no es
una opción deseable por la reducción en el desempeño del sistema. Los diseñadores de
hardware han encontrado un mecanismo que tiene un efecto similar a introducir estados
de espera, pero sin afectar notablemente el rendimiento de la computadora, a este
mecanismo se le llama memoria cache (se pronuncia "cash").
Una memoria cache es un dispositivo sin estados de espera que se encuentra
construida como parte integral del CPU, físicamente se encuentra entre el CPU y los
módulos de memoria RAM, su función es evitar la generación de estados de espera por
parte de los módulos de memoria RAM y así aprovechar al máximo el rendimiento
esperado por el CPU, sin embargo la memoria cache no es un dispositivo perfecto pues
hay ocasiones en que no es posible colocar en memoria cache los datos que requiere el
programa para ejecutarse forzando al sistema a leer dichos datos directamente de los
módulos de memoria RAM y por lo tanto generando estados de espera, cuando ocurre
éste fenómeno se le llama pérdida cache (cache miss), cuando tienen éxito las
operaciones en memoria cache se le llama éxito cache (cache hit). Por lo general el radio
entre éxito y pérdida en memoria cache está entre 85 y 90%. Este rendimiento disminuye
ARQUITECTURA DE COMPUTADORAS P á g i n a 13 | 29
al aumentar la cantidad de memoria cache y por esta razón la memoria cache es
relativamente pequeña, sus valores de almacenamiento oscilan entre 256 y 512 Kb.
INTERRUPCIONES
Transferencia de datos por interrupción.
Las interrupciones alteran la secuencia normal de un programa para permitir una
operación de E/S. Son particularmente útiles con periféricos lentos o en aplicaciones
donde la ocurrencia de datos a ser transferidos a la computadora es impredecible como
en enlaces de comunicación.
La principal característica es que: El intercambio de datos es iniciado por los
dispositivos periféricos.
La implementación de tal sistema consiste en reemplazar el lazo de espera para la
transferencia asíncrona con un lazo equivalente en hardware para probar para una
interrupción externa.
Durante cada ciclo de máquina el microprocesador checa la presencia de una señal
de interrupción.
Para realizar una transferencia por interrupción simple, ocurren generalmente los
siguientes pasos:
1. Un dispositivo periférico solicita una interrupción.
2. El microprocesador emite un conocimiento de la interrupción.
ARQUITECTURA DE COMPUTADORAS P á g i n a 14 | 29
3. Se guarda el PC y el programa brinca a una localidad de la memoria que
contiene una rutina para procesar la interrupción.
4. El contenido de los registros internos (de trabajo y estatus) son guardados y la
transferencia de datos es ejecutada bajo control de software.
La ejecución del programa es regresada a la secuencia pre- interrumpida del
programa.
Hay dos métodos de implementar la secuencia antes mencionada.
e. Interrupciones sondeados (polling)
f. Interrupciones vectorizadas
El siguiente diagrama muestra la forma de dar servicio a una interrupción.
El microprocesador Z80 posee un complejo y poderoso sistema de interrupciones,
las cuales le sirven para comunicarse con periféricos externos, que pueden ser o no
compatibles con el microprocesador Z80.
El microprocesador cuenta con dos entradas para interrupciones externas; la
terminal INT (pin 16) y la NMI (pin 17), de las cuales INT es activa a nivel bajo y NMI en
la transición de 1 a 0.
Las líneas de interrupción del microprocesador (INT, NMI) permiten a un dispositivo
externo interrumpir el flujo de un programa en el microprocesador, forzando el programa
a pasar una localidad especifica de memoria.
ARQUITECTURA DE COMPUTADORAS P á g i n a 15 | 29
Una interrupción es un evento asíncrono ya que puede ocurrir en cualquier momento,
y por lo general suspenderá la ejecución del programa en curso.
Hay tres mecanismos de interrupción en el Z80.
1. La solicitud de los buses BUSREQ
2. Interrupción no enmascarable NMI
3. Interrupción usual.
Las interrupciones pueden ser enmascarables y no enmascarables.
Una interrupción enmascarable tiene la característica que, si el microprocesador
ejecuta una instrucción de deshabilitar interrupción, (DI), cualquier señal de control en la
línea de interrupción será ignorado o enmascarada (masked out). El procesador se
mantendrá sin hacer caso a la línea de la interrupción enmascarable (EI) sea ejecutada.
Una interrupción no enmascarable, por otro lado, no puede ser enmascarable bajo
control de programa.
Se dice también que hay interrupciones vectorizadas o interrupciones de localidad
fija.
Una interrupción de localidad fija, siempre hará que el programa brinque a una
localidad de memoria específica, invariable.
ARQUITECTURA DE COMPUTADORAS P á g i n a 16 | 29
Las interrupciones vectorizadas, puede hacer que el procesador brinque a cualquier
número de diferentes localidades dependiendo de la señal en un puerto de interrupción
que es interrogado por el procesador siguiendo una interrupción.
La interrupción no enmascarable del Z80 NMI no puede ser vectorizada.
Un NMI hace al procesador brincar a la localidad 0066h en la memoria donde debe
empezar la rutina de servicio de la interrupción. La rutina de servicio de la interrupción
termina con una instrucción de return, el cual fuerza al microprocesador a regresar
exactamente dónde estaba el programa principal en el momento de la interrupción.
INTERRUPCIONES ENMASCARABLES
Las interrupciones ordinarias INT también pueden ser “enmascaradas”
selectivamente por el programador. Haciendo uso de los flip flops IFF1 y IFF2 a “1” las
interrupciones son autorizadas. Poniéndolas a cero (mascarándolos) se prevendrá la
detección de INT. La instrucción EI es usada para habilitarlas y DI para deshabilitarlas.
IFF1 y IFF” no son “puestos” en “1” simultáneamente durante la ejecución de las
instrucciones EI y DI, las interrupciones son deshabilitadas para prevenir cualquier
pérdida de información.
Para que el microprocesador acepte esta interrupción, deben de cumplirse las
siguientes condiciones:
1. Que las interrupciones hayan sido habilitadas previamente.
2. Que la entrada Busreq no esté activa.
ARQUITECTURA DE COMPUTADORAS P á g i n a 17 | 29
3. Que la entrada NMI no esté activa.
En la operación normal del Z80 examina la entrada INT en la subida de reloj en el
último estado del último ciclo de máquina de cada instrucción y después en cada
transferencia o comparación de bloques o entrada y salida de bloques.
Cuando la entrada está en 0 lógico y se cumplen todas las condiciones, el
microprocesador inicia un ciclo especial de respuesta a la interrupción (interrupt
acknowledge) para avisar al dispositivo que su interrupción fue aceptada.
Durante este ciclo de máquina se activa la señal M1, pero para distinguirlo de un ciclo
normal de lectura de código de operación, la señal IOREQ se activa en lugar de la señal
Mreq y la señal RD permanece inactiva. IOREQ se utiliza para indicar al dispositivo que
puede colocar una palabra de 8 bits en el bus de datos. Este byte le proporciona al
microprocesador información de la dirección en que se encuentra la subrutina de servicio
a donde se transferirá el control. Esta información varía dependiendo de la interrupción.
Además, durante la interrupción el contenido del PC no se altera y permanece con el
último valor que tenía antes de la interrupción.
El Z-80 puede responder a 3 formas de interrupciones enmascarables,
dependiendo de cuál de los modos de interrupción ha sido seleccionado por el programa
del microprocesador.
MODO 0 : En este modo el dispositivo que provoca la interrupción coloca una palabra de
8 bits en bus de datos en lugar de que lo haga la memoria. Esa instrucción es leída por
el Z-80 en el ciclo de respuesta a una interrupción y ejecutada inmediatamente después.
ARQUITECTURA DE COMPUTADORAS P á g i n a 18 | 29
Normalmente se emplea una instrucción RST n (restart) con lo cual se genera una
llamada a subrutina que transfiere el control del programa a una de las 8 direcciones
posibles colocadas en los primeros bytes de memoria. Las 8 posibilidades de RST son:
Código (bits 5, 4, 3) Dirección
0 0 0 00h
0 0 1 08h
0 1 0 10h
0 1 1 18h
1 0 0 20h
1 0 1 28h
1 1 0 30h
1 1 1 38h
MODO 1: Es un modo de interrupción no vectorizada. Una interrupción en la línea INT
en este modo, hará brincar a el procesador a una localidad fija; la 0038h.
ARQUITECTURA DE COMPUTADORAS P á g i n a 19 | 29
MODO 2: Es un modo de interrupción vectorizada que se habilita con la instrucción IM2.
En este modo, la dirección de la rutina de servicio de interrupción es almacenado en dos
bytes del espacio de memoria.
El vector de interrupción es una dirección proporcionada por el dispositivo periférico que
generó la interrupción y es usado como un apuntador a la dirección de inicio de la
subrutina de servicio de interrupción. Cada periférico proporciona 7 bits de la dirección
el cual es agregado a la dirección de 8 bits que se encuentra en el registro I. El bit menos
significativo del vector de interrupción debe ser cero. El PC se carga automáticamente al
STACK ya que el PC es recargado con el contenido de la entrada de la tabla de
interrupciones correspondiente al vector proporcionado por el dispositivo.
LA INTERRUPCION NO ENMASCARABLE.
Este tipo de interrupciones no puede ser inhibida por el programador. Es por esto
que se dice que es no enmascarable. Siempre será aceptada por el Z80 hasta que
finalice la instrucción en curso, asumiendo que no se ha recibido una requisición de buses
(BUSREQ). Si un NMI se recibe durante un BUSREQ se hará 1 el flip flop interno NMI, y
será procesador al finalizar el BUSREQ.
El NMI producirá una colocación push automática del contador del programa en el
STACK, y brinca a la dirección 0066h: Los dos bytes que representan la dirección 0066h
será instalado en el contador de programa. Estos representan la dirección de inicio de la
rutina de manejo para el NMI.
ARQUITECTURA DE COMPUTADORAS P á g i n a 20 | 29
Este mecanismo fue diseñado así por rapidez, ya que es usado en casos de
emergencia. Por esto, no ofrece la flexibilidad del modo de interrupción enmascarable.
Nótese también que la rutina de interrupción debe haber sido cargada con
anterioridad de usar el NMI en la dirección 0066h.
La secuencia de eventos es la siguiente:
PC STACK
IFF1 IFF2
0 IFF1
BRINCA A 0066H
Nótese que el estado del flip flop de interrupción enmascarable es pasado
automáticamente al flip flop al flip flop de interrupción #2 IFF2. Luego IFF1 se hace cero
para evitar cualquier interrupción posterior. Este comportamiento es importante para
evitar que se pierdan interrupciones demás baja prioridad (INT) y simplifica el hardware
externo: El estado de la interrupción pendiente INT es conservado internamente por el
Z80.
La interrupción NMI es normalmente usado para eventos de alta prioridad tal como
reloj de tiempo real o una falla de energía.
El regreso de una interrupción NMI es realizado por la instrucción especial; RETN:
“return from no maskable interrupt”. El contenido de IFF1 es regresado de IFF2 y el
ARQUITECTURA DE COMPUTADORAS P á g i n a 21 | 29
contenido del PC es recargado con la localidad en el STACK. Ya que IFF1 ha sido
“reseteado” durante la ejecución del NMI, no se pudo aceptar ningún INT durante el NMI.
No hay pérdida de información. Después de que el manejador de interrupción termina, la
secuencia es:
IFF2 IFF1
STACK PC
LA SOLICITUD DE BUSES (BUSREQ)
Es la interrupción de más alta prioridad en el Z80 como regla general el Z80 no
censará a ninguna interrupción hasta que sea completado el último ciclo de máquina de
la instrucción en curso.
Las interrupciones NMI Y INT no serán tomadas en cuenta hasta que la instrucción
en curso sea terminada.
Si se ha terminado una instrucción y si el hecho de que alguna interrupción NMI o
INT estuviera pendiente o no estaría memorizando internamente en el Z80 por flip-flops
especializados. El flip flop NMI y el flip flop INT.
Si un DMA (debido a BUSREQ) está presente en el sistema el programador debe
entender que el DMA puede retrasar la respuesta al NMI o al INT.
ARQUITECTURA DE COMPUTADORAS P á g i n a 22 | 29
2.3. Tipos de memorias
La memoria es el almacén donde el autómata guarda todo cuanto necesita para ejecutar
la tarea de control.
Datos del proceso:
Señales de planta, entradas y salidas.
Variables internas, de bit y de palabra.
Datos alfanuméricos y constantes.
Datos de control:
Instrucciones de usuario (programa)
Configuración del autómata (modo de funcionamiento, número de e/s
conectadas, ...)
Existen varios tipos de memorias:
RAM. Memoria de lectura y escritura.
ROM. Memoria de solo lectura, no reprogramable.
EPRON. Memoria de solo lectura, reprogramables con borrado por ultravioletas.
EEPRON. Memoria de solo lectura, alterables por medios eléctricos.
La memoria RAM se utiliza principalmente como memoria interna, y únicamente como
memoria de programa en el caso de que pueda asegurarse el mantenimiento de los datos
con una batería exterior.
ARQUITECTURA DE COMPUTADORAS P á g i n a 23 | 29
La memoria ROM se utiliza para almacenar el programa monitor del sistema como hemos
visto en el apartado dedicado a la CPU.
Las memorias EPROM se utilizan para almacenar el programa de usuario, una vez que
ha sido convenientemente depurada.
Las memorias EEPROM se emplean principalmente para almacenar programas, aunque
en la actualidad es cada vez más frecuente el uso de combinaciones RAM + EEPROM,
utilizando estas últimas como memorias de seguridad que salvan el contenido de las
RAM. Una vez reanudada la alimentación, el contenido de la EEPROM se vuelca sobre
la RAM. Las soluciones de este tipo están sustituyendo a las clásicas RAM + batería
puesto que presentan muchos menos problemas.
Memoria interna
En un autómata programable, la memoria interna es aquella que almacena el estado de
las variables que maneja el autómata: entradas, salidas, contadores, relés internos,
señales de estado, etc. Esta memoria interna se encuentra dividida en varias áreas, cada
una de ellas con un cometido y características distintas.
La clasificación de la memoria interna no se realiza atendiendo a sus características de
lectura y escritura, sino por el tipo de variables que almacena y el número de bits que
ocupa la variable. Así, la memoria interna del autómata queda clasificada en las
siguientes áreas.
ARQUITECTURA DE COMPUTADORAS P á g i n a 24 | 29
Área de imágenes de entradas/salidas y Área interna (IR).
En esta área de memoria se encuentran:
Los canales (registros) asociados a los terminales externos (entradas y
salidas).
Los relés (bit) internos (no correspondidos con el terminal externo), gestionados
como relés de E/S.
Los relés E/S no usados pueden usarse como IR.
No retienen estado frente a la falta de alimentación o cambio de modo de
operación.
Área especial (SR).
Son relés de señalización de funciones particulares como:
Servicio (siempre ON, OFF)
Diagnosis (señalización o anomalías)
Temporizaciones (relojes a varias frecuencias)
Cálculo
Comunicaciones
Accesible en forma de bit o de canal.
No conservan su estado en caso de fallo de alimentación o cambio de modo.
Área auxiliar (AR).
Contienen bits de control e información de recursos de PLC como: Puerto
RS232C, puertos periféricos, casetes de memoria...
ARQUITECTURA DE COMPUTADORAS P á g i n a 25 | 29
Se dividen en dos bloques:
o Señalización: Errores de configuración, datos del sistema.
o Memorización y gestión de datos
Es un área de retención.
Accesible en forma de bit o de canal.
No conservan su estado en caso de fallo de alimentación o cambio de modo.
Área de enlace (LR).
Se utilizan para el intercambio de datos entre dos PLC´s unidos en forma PC Link
(1:1).
Dedicados al intercambio de información entre PLC´s.
Si no se utilizan como LR pueden usarse como IR.
Accesible en forma de bit o canal.
No conservan su estado en caso de fallo de alimentación o cambio de modo.
Área de retención (HR).
Mantienen su estado ante fallos de alimentación o cambio de modo de PLC.
Son gestionados como los IR y direccionables como bit o como canal.
Área de temporizadores y contadores (TIM/CNT).
Es el área de memoria que simula el funcionamiento de estos dispositivos.
Son usados por el PLC para programar retardos y contajes.
ARQUITECTURA DE COMPUTADORAS P á g i n a 26 | 29
CONCLUSION
La memoria es una asombrosa habilidad posiblemente lo más importante para cualquier
ser humano, es su capacidad para almacenar experiencias y poder beneficiarse de estas
mismas en su actuación futura, es un producto de la evolución del cerebro humano. Esta
habilidad ha influido en la acumulación no sólo de vivencias si no en el desarrollo de tipos
de aprendizajes más sofisticados; aunque el funcionamiento de la memoria no es
totalmente perfecto ya que como sabemos pueden presentarse fallas, lo cierto es que
cumple su función bastante bien en diversas situaciones de la vida de las personas.
Esta función no es otra que codificar, registrar y recuperar grandes cantidades de
información que resultan fundamentales para la adaptación del individuo al medio. La
memoria se ha ido desarrollando a lo largo de la historia de la especie para responder a
las necesidades de adaptación al medio y de la selección natural, el estudio científico de
la memoria inicia con Ebbinghaus quien descubrió varias leyes de la memoria que
todavía siguen siendo válidas. La memoria está formada por dos grandes tipos: memoria
a corto plazo, la cual permanece en un estado de fragilidad, donde fácilmente puede ser
alterada, ya sea por nueva la información que se está adquiriendo o se vaya adquirir. Se
necesita tiempo para que esa información memorizada a corto plazo se vaya
fortaleciendo y se convierta en memoria a largo plazo esta se refiere a la retención de la
información durante horas, días y años
La memoria es muy importante en diversos procesos, uno de estos es el aprendizaje,
estos dos elementos están muy estrechamente relacionados; podemos definir al
aprendizaje como la adquisición de nueva información o nuevas conductas, como el
ARQUITECTURA DE COMPUTADORAS P á g i n a 27 | 29
almacenamiento y evocación de esa información. De tal forma que la memoria requiere
de la adquisición previa de información, el aprendizaje mismo requiere de la retención y
evocación de esa información. Este implica memoria de forma indispensable, pero
implica además fenómenos como atención, percepción, operaciones cognitivas como
análisis, síntesis, categorizaciones.
Sin embargo, cuando la memoria falla, ya sea de manera circunstancial y momentánea,
o de manera permanente, nos damos cuenta de su importancia y sólo hasta ese
momento comprendemos su valor exacto. De la misma forma en que la memoria es
natural, el proceso de olvido también lo es. Actualmente la teoría de la interferencia que
explica el olvido es la más aceptada, ésta explica que la información previamente
almacenada puede tender a olvidarse conforme con la adquisición de nueva información
y viceversa, especialmente si la información es similar. Podemos definir al olvido como
una pérdida definitiva o la no consolidación de información registrada y codificada en el
cerebro durante breve tiempo, generalmente información personalmente no relevante
para la propia persona (Téllez 2003).
ARQUITECTURA DE COMPUTADORAS P á g i n a 28 | 29
BIBLIOGRAFIA
Brey Barry B., Microprocesadores Intel, México, Pearson Educación,
Hamacher Carl Vranesic Zvonko Zaky Satwat, Organización de
Computadores, España, McGraw-Hill, 2003.
Norton Peter, Introducción a la Computación, México, McGrawHill/InterAmericana
Editores, 2000.
Stallings William, Organización y arquitectura de computadores,
Madrid, Pearson Educación, 2005.
Referencias
Hoganson, K. (2008). Concepts in computing. Sudbury Massachusetts. Jones and
Bartlett Publishers.
Knorr, E. (1994). The PC bible. USA. Peachpit Press.
Pfaffenberger, B. (1990). Que’s computer user’s dictionary. Carmel Indiana. Que
Stanley, J. (2010). Computer systems. Sudbury Massachusetts. Junes and Bartlett
Publishers.
Seagate, (2012), Quick-Reference Guide, laptop, desktop and video storage
drives, Recuperado de:
http://www.seagate.com/files/www-
content/partners/my%20spp%20dashboard/learn/enus/docs/amer-lap-desk-
video-guide-nov-2012.pdf
ARQUITECTURA DE COMPUTADORAS P á g i n a 29 | 29