Storia e Generazione Dei Computer Riepilogo
Storia e Generazione Dei Computer Riepilogo
Il computer è attualmente uno degli strumenti più utilizzati a livello mondiale da tutti
classe di utenti, e svolgono compiti che vanno oltre l'obiettivo per cui sono state sviluppate.
Oggigiorno un semplice computer può essere utilizzato sia per il semplice
intrattenimento e i social media fino a controllare aspetti così complicati come le
missioni spaziali in modo completamente automatico. Anche se solo a partire dagli anni '90
I computer poterono essere riconosciuti da una grande parte della popolazione, e nel 2000
hanno cominciato a far parte della vita quotidiana delle persone, la verità è che la loro storia risale a
molti anni fa con un'ampia generazione di computer che, ancora nel pieno del XXI secolo,
ancora le ignorano.
La storia del computer, al contrario di quanto molti possano immaginare, ha inizio molti anni fa
molto tempo fa, quando l'uomo scoprì che poteva contare con le dita, o con
altri oggetti, come pietre o pezzi di legno. Queste palle venivano realizzate sempre più
più complicate man mano che l'umanità imparava, e presto gli uomini si resero conto che
avrebbero bisogno di un artefatto che permetta loro di eseguire calcoli più complessi a maggiore velocità.
Circa 4000 a.C., fu creato un dispositivo molto semplice formato da una piastra di
argilla dove si muovevano pietre che aiutavano nei calcoli. Quel dispositivo era chiamato abaco, una
parola di origine fenicia. Il concetto e le funzioni dell'abaco rimangono intatti fino ad oggi,
dato che questo dispositivo viene ancora utilizzato in, ad esempio, l'apprendimento per i non vedenti.
Dopo l'abaco, il passo successivo nella storia dei computer (anno 1642) avvenne quando
un francese di 18 anni di nome Blaise Pascal, inventò la prima macchina per sommare: la Pascalina,
la quale eseguiva operazioni aritmetiche quando si giravano i dischi che erano ingranati,
essendo così la precorritrice delle calcolatrici meccaniche.
Nel 1671 in Germania, Gottfried Leibnitz inventò una macchina molto simile alla Pascalina, che
effettuava calcoli di moltiplicazione e divisione, e la quale fu la diretta predecessora delle
calcolatrici manuali.
All'inizio del XIX secolo, più specificamente nel 1822, fu sviluppato da uno scienziato inglese
chiamato Charles Babbage una macchina differenziale che permetteva calcoli come funzioni
trigonometrica e logaritmica, utilizzando le schede di Jacquard. Nel 1834, sviluppò una
macchina analitica capace di eseguire le quattro operazioni (somma, divisione, sottrazione, moltiplicazione)
memorizzare dati in una memoria e stampare risultati.
Nel 1900, Hermann Hollerith perfezionò il sistema delle schede perforate e inventò macchine
per trattarle.
Nel 1930, gli scienziati iniziarono a progredire nelle invenzioni di macchine complesse, essendo
L'Analizzatore Differenziale di Vannevar Bush, che annuncia l'era moderna del computer.
Nel 1937, George Stibitz costruisce sulla sua tavola da cucina il famoso «Model K», una macchina digitale
basata su relè e cavi. Con l'arrivo della Seconda Guerra Mondiale si è posta la necessità di
proiettare macchine capaci di eseguire calcoli balistici con rapidità e precisione affinché
siano utilizzate nell'industria bellica.
Con questo nacque, nel 1944, il primo computer elettromeccanico dal team del professor H.
Aiken e con l'aiuto finanziario di IBM possedeva il nome di MARK I, era controllato da programmi
e usava il sistema decimale.
A partire da lì, i computer evolsero anno dopo anno dando così il benvenuto a un
nuovo mondo.
La Prima Generazione inizia con l'installazione commerciale del UNIVAC costruito da Eckert e
Mauchly. Il processore dell'UNIVAC pesava 30 tonnellate e richiedeva tutto lo spazio di un
salone di 20 per 40 piedi.
I computer di seconda generazione erano più veloci, più piccoli e con minori
necessità di ventilazione. Questi computer utilizzavano anche reti di nuclei magnetici
invece di tamburi rotanti per lo stoccaggio primario. I programmi di
I computer sono anche migliorati. I programmi scritti per un computer potevano
trasferirsi a un'altra con un minimo sforzo. Scrivere un programma non richiedeva più capire
plenamente l'hardware della computazione.
La IBM 360 è una delle prime computer commerciali che ha utilizzato circuiti integrati, poteva
eseguire sia analisi numeriche che gestione o elaborazione di file.
QUARTA GENERAZIONE (1971 A 1981)
Due miglioramenti nella tecnologia dei computer segnano l'inizio della quarta generazione: il
sostituzione delle memorie con nuclei magnetici, con quelle a chip di silicio e la collocazione di
Molti più componenti in un chip. La dimensione ridotta del microprocessore dei chip ha reso
possibile la creazione dei computer personali. Poiché riduce il consumo di energia,
rendendolo più efficiente, aumentando al contempo significativamente le prestazioni, la velocità e il
potere di elaborazione del nucleo del sistema.
Nel 1971, l'Intel Corporation, che era una piccola azienda produttrice di semiconduttori
situata nella Silicon Valley, presenta il primo microprocessore o chip a 4 bit. Questo primo
Il microprocessore fu battezzato come il 4004. Fu chiamato così perché il suo nome proveniva da una
serie di chip chiamata "famiglia 4000" che era composta da quattro dispositivi a 16 pin.
La quinta generazione di computer fu un progetto ambizioso lanciato dal Giappone alla fine di
gli anni '70. Il suo obiettivo era lo sviluppo di una classe di computer che utilizzerebbe tecniche di
intelligenza artificiale al livello del linguaggio macchina e sarebbero in grado di risolvere problemi
complessi, come la traduzione automatica da una lingua naturale a un'altra. Sulla base dei grandi
eventi tecnologici in materia di microelettronica e informatica come CAD/CAM
(progettazione assistita da computer e produzione assistita da computer), CAE (Ingegneria
Asistita da Computer), CASE (insieme di strumenti che contiene programmi e applicazioni
informatica), intelligenza artificiale, sistemi esperti, reti neurali, teoria del caos,
algoritmi genetici, fibre ottiche, telecomunicazioni.