Quei favolosi anni '70

di Andrea D'Alessandro (*)

 

 

"There is no reason anyone would want a computer in their home."

- Ken Olson, fondatore e presidente della Digital Equipment Corp., 1977


Introduzione

Se "natura non facit saltus", la tecnologia invece non si evolve in modo lineare, ma tramite veri e propri salti quantici, che corrispondono all'invenzione o alla messa a punto di una nuova tecnica o di un nuovo paradigma, che permette una repentina accelerazione della normale evoluzione.
La storia della informatica non è da meno: nonostante la sua breve durata (cinquant'anni o poco più), diversi sono stati i salti di paradigma che hanno permesso le sue brusche accelerazioni.
Ma dei sei decenni su cui si svolge la sua storia, uno - gli anni '70 - è stato a mio parere assolutamente fondamentale. Durante quei dieci anni sono apparsi gran parte delle tecnologie e dei paradigmi sui quali si fonda l'informatica moderna, primo fra tutti il personal computer.
Questo documento vuole appunto provare a ricordare gli avvenimenti salienti di quel periodo. Non ne vuole essere ovviamente una storia esaustiva, che riempirebbe molte più pagine; per chi ne volesse sapere di più, nella bibliografia sono riportati riferimenti a diversi testi che sono già stati scritti sull'argomento.

Prima del PC

Che cosa era l'informatica prima dell'invenzione dei personal computer, inizialmente detti anche microcomputer ? Coloro che non conoscono a fondo la storia dell'informatica sono portati a credere che prima dei PC esistevano solo quei calcolatori elettronici di dimensione elefantiaca e costo stratosferico, il cui acquisto e utilizzo era possibile solo a grandi corporation od organizzazioni governative.
Di questi "cervelli elettronici" se ne sentiva parlare ogni tanto sui giornali, come di qualcosa che i militari utilizzavano per fare calcoli sui tragitti dei missili, o con cui i ministeri compilavano le statistiche dell'ultimo censimento; ogni tanto apparivano nei cinegiornali e nei film di fantascienza, grandi stanze piene di armadi, con grandi consolle piene di lucette lampeggianti, interruttori e qualche schermo CRT tondo - tipo oscilloscopio.
Già negli anni '60 però, il costo e la dimensione fisica degli elaboratori era cominciato a scendere, rendendone l'acquisto possibile anche alle medie aziende ed ai dipartimenti universitari; e i terminali - telescriventi o CRT - avevano cominciato a diffondersi all'interno degli uffici. I prezzi non erano ancora alla portata del singolo utente, ma con la fine del decennio erano apparsi alcune macchine che si avvicinavano, per dimensione e costo, al concetto che oggi abbiamo di computer personale.
Computers come la Olivetti Programma 101, la Hewlett Packard 9100, l'IBM Model 5100, sono esempi di come - tra la fine dei '60 e l'inizio dei '70 - l'industria informatica cominciasse a concepire macchine dedicate all'utilizzo da parte del singolo utente. Esse erano però ancora relativamente costose, limitate, e soprattutto "chiuse", nel senso lo sviluppo hardware e software era possibile solo all'interno dei centri ricerca delle grandi corporation del settore, le uniche dotate del personale all'altezza e capaci di sostenere i grandi investimenti necessari.

La svolta

Ma all'inizio degli anni '70 si arrivò finalmente ad una svolta: l'avanzamento della tecnologia dei circuiti integrati permise la costruzione di una intera CPU all'interno di un singolo chip [1] , il microprocessore. Questo permise, nel giro di pochi anni, la creazione di una nuova generazione di macchine, denominate microcomputer, basate sulle nuove CPU single chip, alle quali bastava aggiungere la memoria e un po' di logica di supporto.
Oltre alla drastica riduzione di costi che permetteva, la vera rivoluzione del microprocessore stava nel fatto che il design di un microcomputer basato su di esso era alla portata di chiunque, mentre - come abbiamo già accennato - negli anni precedenti solo le grandi aziende come IBM, HP, Digital, Xerox o Olivetti erano state in grado di permettersi lo sviluppo di un nuovo computer.
Nella prima parte di questo documento vedremo come, nel corso degli anni '70, nacque il microprocessore, e come esso venne subito utilizzato da una miriade di neonate microaziende per la costruzione di una nuova generazione di computer, destinati all'utilizzo (inizialmente hobbistico, e solo in seguito professionale) da parte di un singolo individuo.
Vedremo anche come si creò un consistente spazio di mercato anche per il software, e come spuntarono come funghi microaziende (che vennero chiamate "cottage industry"), spesso formate da un singolo programmatore, che sfornavano tutti i sistemi operativi e i programmi necessari a questo mercato.

Lo sviluppo del mercato del microcomputer

Nella seconda parte vedremo come l'industria un po' naif e anarchica dei primissimi anni troverà dei leader, che ne imposteranno modelli industriali e tendenze commerciali.
Alcune delle aziende leader di oggi hanno le radici proprio nel magico decennio dei '70: come per esempio la Apple Computer e la Microsoft. Altre aziende nate nel periodo, come la Commodore, Atari, e molte altre, prospereranno negli anni seguenti, ma si perderanno durante gli anni '90 (per estinzione naturale o assorbimento da parte di altri); e la loro scomparsa si rivelerà un netto impoverimento del tasso di creatività dell'industria informatica.

E al di fuori ?

Ma se l'invenzione del microprocessore e la conseguente creazione del microcomputer è l'avvenimento più importante degli anni '70, dobbiamo ricordare quella decade anche per altri fatti altrettanto decisivi, che consistettero nella messa a punto di alcuni modelli tecnologici che avrebbero avuto una grandissima influenza sugli anni a seguire. Possiamo dire che l'informatica odierna ancora oggi è fortemente influenzata dai seguenti tre avvenimenti:

  • la nascita della rete ARPAnet;
  • lo sviluppo del sistema operativo Unix;
  • la creazione del computer Xerox Alto.

Nella terza parte vedremo quindi questi tre avvenimenti, seguendone genesi e sviluppo, e cercheremo di comprendere come l'informatica - come la conosciamo oggi - sia veramente costruita sulle fondamenta gettate in quegli anni.

Capitolo successivo >>


[1] Beh, questo non è proprio vero: il primo microprocessore propriamente detto, l'Intel 4004, non era una intera CPU: era piuttosto un chipset formato dai 4001, 4002, 4003 e 4004 (e che richiedeva anche altri chips di supporto). Questo partizionamento non era dovuto tanto allo spazio necessario sul silicio, quanto al fatto che l'Intel, azienda fino al quel momento esperta solo di memorie, voleva utilizzare solo package DIL a 16 piedini. Anche i microprocessori immediatamente successivi necessitavano ancora di una serie di chips di supporto.


Andrea D'Alessandro è fondatore della Silicon Software, azienda attiva del campo dello sviluppo hardware e software per automazione industriale e prodotti elettromedicali, della formazione e della consulenza informatica specialistica. In precedenza ha lavorato nel campo della progettazione di circuiti ibridi thick-film e gate-arrays, e in quello del CAD meccatronico.
Dopo molti anni di lavoro è tornato agli studi precedentemente interrotti, e sta per conseguire il Diploma di Laurea in Ingegneria Informatica, con una tesi di cui questo lavoro è un estratto.
I suoi interessi in campo informatico sono particolarmente rivolti alla storia della elaborazione personale e dell'industria microinformatica. (up)