Una Storia dell’Ipertesto

Andrea D’Alessandro

Sino ad allora avevo pensato che ogni libro parlasse
delle cose, umane o divine, che stanno fuori dai libri.
Ora mi avvedevo che non di rado i libri parlano di libri,
ovvero è come se si parlassero fra loro.

Umberto Eco – Il Nome della Rosa

 

Hans Hartung, T. 1935 - 1, 1935

 

Indice:

 

Introduzione

Il World Wide Web ha cambiato per sempre il modo di memorizzare, organizzare e ricercare le informazioni: esso è basato sul concetto di ipertesto, una struttura elastica e multiforme di collegamento fra informazioni. Un ipertesto consiste essenzialmente in un testo non lineare e non sequenziale, formato da documenti a loro volta composti da una collezione di nodi (frammenti di testo o altri media) connessi da collegamenti.
Ma l’ipertesto non è nato con il web. Come vedremo, il modello nacque molti anni prima, e vi furono moltissimi approcci all’implementazione, che ebbero quale più, quale meno successo.
Inoltre, le sue radici sono molto più antiche, fondate sui tentativi connaturati all’uomo di collezionare informazioni, categorizzarle, organizzarle in complesse strutture fisiche e mentali, ed infine indicizzarle per rendervi più facile l’accesso.
La maggior parte delle storie e cronologie del web fanno risalire il concetto di ipertesto a Vannevar Bush, noto scienziato, tecnologo e “futurologo” che nel 1945 descrisse l’idea del memex, un dispositivo del futuro destinato alla memorizzazione, organizzazione e recupero della conoscenza, che avrebbe permesso di collegare i vari segmenti di informazione tramite libere associazioni in modo analogo a quanto accade dentro alla mente umana.
Vedremo che Bush in realtà non inventò nulla; i concetti e le tecnologie su cui si basava l’idea del memex erano all’epoca già esistenti e ben affermate. Egli ebbe però il merito di fonderli in un'unica visione del futuro della conoscenza umana, e di descriverla in modo così naturale da convincere i suoi attenti lettori della possibilità (se non addirittura della facilità) della sua realizzazione.
La strada dell’ipertesto - dal memex di Vannevar Bush al World Wide Web di Tim Berners-Lee - fu poi lunga e tortuosa. Vedremo come i concetti, le tecnologie e gli idiomi semantici su cui oggi è fondato il web - e che diamo ormai per scontati – si sono lentamente formati e cristallizzati negli anni grazie agli sforzi di innumerevoli ricercatori.

 

Prima dell’ipertesto

Libri sacri
La Bibbia è forse il testo più anticamente e profondamente studiato tra quelli che fanno parte della cultura indo-europea. Fin dall’inizio i dotti, prima quelli ebraici con Vecchio e poi quelli cristiani con il Nuovo Testamento, hanno dissezionato il Libro commentandolo, analizzandolo e indicizzandone parole e situazioni, in modo da carpirne anche il significato più segreto. Anche Talmud e Corano, altri testi sacri con origini simili, sono stati soggetti ad esegesi simili, e tali intricati sistemi di riferimenti incrociati rendono evidente il fatto che la complessità intertestuale e ipertestuale è connaturata al modo di pensare della mente umana.

Arte della memoria e Teatri della Sapienza
Con la nascita della retorica, iniziò anche lo studio dell’arte dell’incremento artificiale della memoria; i retori greci e romani per aiutarsi nei discorsi escogitarono molte tecniche ed artifici per aiutare la mente umana a estendere la propria - limitata - capacità mnemonica (il più antico testo a noi giunto ove sono descritte tecniche mnemoniche è il libro terzo della Rhetorica Ad Herennium, a lungo attribuito a Cicerone); i predicatori medievali mantennero poi viva la tradizione utilizzando ampiamente tali tecniche (vedi la Rhetorica Divina di Guillelmus Alvernus del 1240).
Fu però il Rinascimento - stranamente proprio quando, con l’arrivo della stampa, avrebbero teoricamente dovuto perdere d’importanza - che le arti mnemoniche ebbero la massima fioritura; i maggiori letterati dell’epoca, da Giovanni Pico della Mirandola a Marsilio Ficino fino a Giordano Bruno, scrissero diversi trattati sull’arte della memoria per aiutare oratori, politici e predicatori a memorizzare senza grande sforzo, tramite vari meccanismi mentali (vedi anche [Yates 1966]).

Matteo Ricci

Dove non erano sufficienti gli esercizi di associazione di idee e di allenamento mentale, alcuni poi escogitarono strumenti i quali – secondo gli autori – potevano meccanizzare la memorizzazione di grandi quantità di informazioni, e il richiamo dalla memoria di frammenti di esse quando necessario. Ad esempio, nel 1550 Giulio Camillo Delminio (1) descrisse ne L’idea del Theatro il suo Teatro della Memoria (2) [Camillo 1550], e Matteo Ricci (3) nel 1596 insegnò ai cinesi la costruzione di Palazzi della Memoria.
Il teatro di Camillo era una struttura costruita secondo il modello vitruviano del teatro, suddiviso quindi in ordini e gradi in cui erano sistemati i vari luoghi del sapere. Anche se non venne mai realizzato nella sua interezza, ne venne costruito un modello in legno – oggi diremmo un prototipo - in scala ridotta ma grande a sufficienza da poterci entrare, costellato di figure dipinte e pieno di scatole contenenti oggetti che richiamavano alla memoria luoghi, situazioni ed idee.
Il palazzo della memoria di Matteo Ricci era simile in tecnologia, ma venne adattato alla cultura cinese, la quale, a causa degli ideogrammi usati nella scrittura, già era permeata dell’equazione immagine = idea [Spence 1983].

Agostino Ramelli
Leggio a ruota per più libri

Questi strumenti cercavano di meccanizzare le libere associazioni d’idee che naturalmente la mente umana crea fra concetti e frammenti di informazione. I collegamenti potevano essere creati e percorsi fisicamente tramite una efficace navigazione attraverso tutto lo scibile umano.
In quell’epoca feconda furono escogitati anche sistemi che automatizzavano la ricerca e la comparazione delle informazioni presenti nei libri. Curioso è il “leggio a ruota per più libri” di Agostino Ramelli (4), che ne pubblica un disegno nella sua opera sui dispositivi meccanici [Ramelli 1588]; permetteva la disposizione di più libri, mantenuti sempre orizzontali da rotismi, e il passaggio dall’uno all’altro tramite la pressione di un pedale.

John Wilkins – XVII secolo
John Wilkins (5), vescovo e letterato inglese del seicento, costruì un complesso e completo sistema per una lingua filosofica universale [Wilkins 1668].
Per la generazione di questa lingua, egli procedette ad una colossale recensione di tutto il sapere (6), organizzando le idee in 40 generi maggiori, suddivisi poi in 251 differenze e quindi in 2030 specie, tutti organizzati nella sua opera in complesse tavole gerarchiche.
Egli procedette poi a creare una grammatica e una scrittura simbolica che univa le suddette idee in strutture regolari ed ortogonali, che avrebbero dovuto aiutare la memorizzazione della sua lingua.
Senza entrare in ulteriori dettagli, Wilkins prevedeva come un concetto potesse fare parte di diversi contesti, e che essi fossero tutti collegati tramite le tabelle e la grammatica peculiari del suo sistema. Egli fu perciò un pioniere della classificazione flessibile e multipla del sapere, un antesignano dell’ipertesto [Eco 1993].

 

Strutture ipertestuali analogiche

Paul Otlet – Anni ‘20-‘30
Lo storico W. Boyd Rayward ha studiato a fondo la vita e le opere di Paul Otlet (7)- uno dei fondatori dell’International Federation for Information and Documentation (FID) - e in diversi articoli ha reso noto al grande pubblico i contributi pionieristici che Otlet ha apportato a quella che oggi chiamiamo “Information Science” (nella sua vera, originale accezione di scienza della gestione dell’informazione) [Rayward 1991].
Fra le molte realizzazioni di Otlet, dobbiamo ricordare il gigantesco database bibliografico denominato Repertoire Bibliographique Universel (RBU) (8), creato all’interno della FID, e la Universal Decimal Classification (UDC, in uso ancora oggi), messa a punto per facilitare la classificazione dei testi entro al RBU.
Nel 1910, in occasione dell’Esposizione mondiale di Bruxelles, Paul Otlet e Henri La Fontaine crearono un’installazione chiamata “Mundaneum”, che avrebbe dovuto rappresentare una cittadella dell’intelletto, il centro pulsante di una città utopica che ospitasse la società delle nazioni mondiali (9). Nel 1919, Otlet convinse il Re Alberto del Belgio a fornire una nuova sede al Mundaneum, in 150 stanze del Palais du Cinquantenaire, all’interno della quale riunì il suo vasto “edificio documentario”, con più di 12 milioni di schede e documenti.
Oltre al problema dell’organizzazione del database, risolto brillantemente con l’UDC, Otlet però era preoccupato dal problema della fruibilità del database stesso. Versò la fine degli anni ’30, egli cominciò a pensare ai vari modi in cui le nuove tecnologie dell’epoca (radio, cinema, microfilm e televisione) potessero essere combinate per fornire innovative funzioni di ricerca e analisi dell’informazione.

Paul Otlet

Innanzi tutto, pensò alla possibilità di costruire, con meccanismi analogici, dei sistemi che oggi chiameremmo ipertestuali: ideò una stazione di lavoro costituita da una scrivania che poteva accedere ad un archivio mobile, montato su ruote, all’interno del quale un sistema elettro-meccanico permetteva all’utente la ricerca, lettura e scrittura all’interno del database (10). L’utente non solo poteva recuperare documenti, ma anche annotare le loro relazioni, “le connessioni che ciascuno ha con tutti gli altri, formando quello che potrebbe essere chiamato il Libro Universale”.
L’altro problema molto sentito era quello della decentralizzazione del database, che permettesse una pubblicazione o un accesso remoto alle biblioteche e centri culturali in tutto il mondo; pensò quindi che gli utenti remoti avrebbero potuto accedere al database tramite un sistema (che Otlet chiamava di “teletautografia” o “telefotografia”), connesso tramite una linea telefonica, che avrebbe recuperato una immagine facsimile da proiettare su uno schermo della stazione di lavoro.
Infine, Otlet era convinto che il libro fosse solo un mezzo per trasmettere informazione, e che nuove tecnologie – audio e video su pellicole e dischi fonografici, trasmissioni broadcast di libri e documenti, ecc. – potessero diffondere le informazioni in modo anche più efficiente e completo (11).
Nonostante il lavoro di Paul Otlet sia stato completamente dimenticato fino alla sua riscoperta degli anni ’90, possiamo senza dubbio dire che – nonostante le limitazioni tecnologiche dei suoi tempi – egli aveva già chiaramente in mente l’universo ipermediale oggi costituito dal web [Rayward 1994].

Macchina Statistica - 1931

Emmanuel Goldberg

Nell’agosto del 1931, durante l’8° Congresso Internazionale di Fotografia in Dresda, Emanuel Goldberg (uno dei più importanti scienziati nel campo fotografico e primo direttore della Zeiss Ikon AG (12)), presentò un prototipo di selezionatore di microfilm che utilizzava una cellula fotoelettrica, su cui lavorava fin dal 1927 [Goldberg 1931].
Nel sistema usato da Goldberg, sul film fotografico, per ciascun’immagine, era impresso anche un codice formato da punti opachi alla luce. Il meccanismo elettromeccanico, basato su una cellula fotoelettrica, poteva rapidamente ritrovare l’immagine all’interno della pellicola tramite una scheda di ricerca, dove un insieme di fori riportava lo stesso codice impresso sulla pellicola [Buckland 1995].
Nel dicembre 1931 l’ufficio brevetti tedesco concesse alla Zeiss un brevetto sul meccanismo, che venne chiamato “Macchina Statistica”; successivamente la IBM acquisì una licenza di utilizzo del brevetto. Purtroppo la Zeiss non continuò la ricerca sul dispositivo che non divenne mai un prodotto commerciale.
Parallelamente, nel periodo 1938-40, Vannevar Bush (vedi oltre) sviluppava al MIT, con il supporto della Kodak e della NCR, un dispositivo simile (il “Microfilm Rapid Selector”). Sembra che Bush non fosse a conoscenza del prototipo di Goldberg, e quando richiese un brevetto sul suo lavoro, la richiesta venne respinta a causa della registrazione del dispositivo precedente [Buckland 1992].

Il meccanismo di selezione nella Macchina Statistica

Memex - 1945
Uno dei decisivi passi nella formulazione del concetto di ipertesto è costituito dalle proposte contenute in quell’articolo fondamentale - “As We May Think” – di Vannevar Bush (13), che tanto influenzò i ricercatori tecnologici da quel momento in avanti.
Parlando dei dati organizzati in ordine alfabetico o comunque strutturati in modo rigido, Bush scrisse: “La mente umana non lavora in questo modo. Essa opera in modo associativo. Avendo afferrato un concetto, essa salta istantaneamente al prossimo che viene suggerito dall’associazione di idee, in accordo con qualche intricata ragnatela di percorsi tracciata dalle cellule del cervello [Bush 1945]”.
E per emulare in modo meccanico questo tipo di funzionamento, o almeno per supportarlo, Bush concepì e propose il memex (14), un dispositivo personale a forma di scrivania sul cui piano vi sono schermi su cui possono essere proiettati i microfilm; una tastiera, un insieme di leve e bottoni (15).

Vannevar Bush

All’interno della scrivania vi è un sistema elettromeccanico che può gestire in modo automatico una libreria che memorizza milioni di pagine d’informazioni sotto forma di microfilm. Le informazioni possono essere rapidamente richiamate tramite chiavi di ricerca, che operano sul sistema meccanico di libreria per proiettare sullo schermo le immagini contenenti le informazioni volute (il meccanismo di ricerca funziona in modo simile a quello della macchina statistica di Emanuel Goldberg, illustrata in precedenza).
Ma se pur innovativo nelle capacità, uno strumento che si limiti a memorizzare e ricercare informazioni è ancora convenzionale dal punto di vista filosofico; dove invece il memex diventa rivoluzionario sta nel fatto che permette all’utente di costruirsi un percorso personalizzato di consultazione, mediante associazioni che possono essere stabilite fra le informazioni.
Nel suo articolo, Bush illustrò ed esemplificò esattamente il modello – che oggi noi, grazie al web, riconosciamo come estremamente familiare - di ipertesto, con pagine che l’utente può navigare spostandosi dall’una all’altra seguendo collegamenti che associano punti di una pagina a punti su altre pagine “semplicemente premendo un bottone sotto il codice corrispondente”, nelle parole originali di Bush.
Per gestire questa massa d’informazioni, Bush non riusciva ancora a pensare ad un computer. L’ENIAC, il primo elaboratore elettronico, veniva completato in quegli anni (16), ma all’epoca non era ancora lontanamente pensabile che un dispositivo di quel genere potesse diventare sufficientemente piccolo, affidabile e soprattutto poco costoso tanto da diventare uno strumento personale.

Il modello di memex come apparve su “Life”

Ma, qualunque fosse la tecnologia utilizzata per implementarlo, in “As We May Think”, Bush prefigurava comunque un mondo in cui esisteva uno strumento a disposizione dell’uomo, utilizzato per archiviare informazioni, connetterle fra loro in strutture metatestuali e ipertestuali, ed estrarne analisi e sintesi che costituiscano risposte alle domande che l’uomo si pone.
Concludendo, possiamo notare che le idee di Vannevar Bush erano non dissimili da quelle – viste in precedenza – di Paul Otlet (del lavoro del quale forse molto probabilmente non era a conoscenza). La differenza principale consisteva nel fatto che mentre Otlet era più interessato a permettere all’utente l’accesso a sterminati database di informazioni remoti, e mondialmente centralizzati, Bush invece si concentrava di più sulle funzioni a supporto del lavoro intellettuale del singolo.

 

La nascita del modello di ipertesto

Il modello di ipertesto propriamente detto nacque all’inizio degli anni ’60 con le ricerche di Ted Nelson, che però, come vedremo, non portarono alla nascita di nessuna implementazione reale.
Nella seconda metà degli anni ’60 cominciarono ad apparire alcuni sistemi ipertestuali, alcuni che utilizzavano come spunto le idee di Nelson, mentre altre nacquero in modo completamente indipendente.
In ogni caso, durante quel periodo tutta la ricerca sull’argomento venne condotta nei laboratori di università e centri di ricerca (spesso sovvenzionati da enti governativi), mentre l’industria non mostrò - se non in modo assolutamente sporadico – alcun interesse nei confronti dei sistemi ipertestuali.

Xanadu - 1960

Ted Nelson

La lettura di “As We May Think” fulminò diversi ricercatori che da quel momento cambiarono direzione ai propri studi, ed in modo indipendente dedicarono il resto della propria attività di ricerca al tentativo di dare vita alla visione di Bush.
Il primo di questi è stato Theodore Holm Nelson, che possiamo considerare il più grande “evangelista” del concetto di ipertesto. Egli fondò all’inizio degli anni ’60 e per decenni sviluppò il progetto Xanadu, che avrebbe dovuto portare allo sviluppo di un sistema per organizzare su scala mondiale informazioni in una struttura ipertestuale e ipermediale. Egli concepì Xanadu come un nuovo mondo di media interattivi, una fusione di letteratura e films, basata su costrutti arbitrari, interconnessioni e corrispondenze.
Fu proprio Nelson l’inventore nel 1965 [Nelson 1965] del vocabolo “ipertesto”, a cui dava il significato di sistema di organizzazione di informazioni - testuali e non - in una struttura non lineare, elastica e non rigida. Una struttura che non poteva essere mostrata in modo convenzionale su una pagina stampata, ma che richiedeva le capacità di un computer per mostrarla in modo dinamico e navigarla opportunamente [Nelson 1967].
Nel suo intervento alla 20a conferenza dell’ACM, egli dichiarava la sua totale adesione alla visione del memex di Bush, e descriveva un sistema di strutturazione dei files dati – chiamato ELF, Evolutionary List File - che rifletteva proprio l’organizzazione ipertestuale.
Nello schema di Xanadu, un database di documenti universale (docuverse) avrebbe permesso l’indirizzamento di qualsiasi frammento di qualsiasi documento; in più Xanadu avrebbe mantenuto ogni versione di ogni documento (impedendo quindi i problemi di collegamenti interrotti – tipici del web - che oggi ben conosciamo).
Negli anni Nelson maturò una particolare attenzione ai problemi di proprietà intellettuale che inevitabilmente sorgono, quando dei documenti originali vengono messi on-line. Xanadu avrebbe dovuto implementare un meccanismo automatico di pagamento di diritti su tutti i documenti presenti nel docuverse; inoltre avrebbe dovuto esistere un meccanismo, che Nelson chiamò di “transclusione” che permettesse la citazione di un frammento di documento senza dover pagare diritti.
Purtroppo, come molti visionari, Nelson è un perfezionista che non riesce mai ad accontentarsi di una buona soluzione, ma ha sempre cercato l’ottimale, che implementi in modo integrale (oggi diremmo, integralista) i suoi concetti, senza mezze misure. Oggi, dell’implementazione dell’ipertesto che anima il web, pensa tutto il male possibile [Nelson 1999]. Egli ritiene, fra l’altro, che i collegamenti fra i vari punti del web debbano essere obbligatoriamente bidirezionali, e che non debbano essere “incorporati” dentro il testo stesso (17), ma debbano essere conservati in una struttura parallela come in un file system [Nelson 2004].
A causa della ricerca da parte di Nelson della soluzione ottimale, nei quarant’anni della sua vita Xanadu ha subito molte vicissitudini, è stata sovvenzionata dagli enti più vari e perfino dalla AutoDesk (18), ma non è mai riuscita a partorire alcun sistema realmente usabile. Ancora oggi il sito del progetto Xanadu continua a diffondere un credo purista dell’ipertesto assoluto, e propone in download un sistema inutilizzabile (19).
In effetti, più che come tecnologo, Ted Nelson ha avuto successo come “evangelizzatore” del modello ipertestuale; egli ha scritto due libri (Dream Machines/Computer Lib [Nelson 1974], e Literary Machines [Nelson 1981]), in cui ha descritto dettagliatamente il concetto ipermediale, e che ebbero una grande diffusione. In questo modo, ha spinto diverse aziende e altri enti a produrre applicazioni reali, le quali hanno ereditato da Xanadu moltissime idee.
In Literary Machines, ad esempio, egli descrive un gigantesco sistema ipertestuale di pubblicazione elettronica – qualcosa che poi verrà in qualche modo incarnato dal Web - con queste parole: “…immaginate se tutti i libri di informatica, di ingegneria elettronica o di matematica, tutte le riviste, i rapporti tecnici, gli atti delle conferenze, siano un unico ipertesto, distribuito su scala mondiale, e accessibile da qualche rete collegata via satellite. Ogni riferimento potrebbe essere trovato immediatamente, i commenti dei lettori letti da tutti, e le correzioni apportate facilmente, ma sempre mantenendo un facile accesso alle precedenti versioni.”

PROMIS - 1966
PROMIS (Problem-Oriented Medical Information System) nacque verso la fine del 1966 come progetto all’Università del Vermont, a cui partecipavano medici e informatici, sotto la direzione di Jan Shultz e del dott. Larry Weed. Esso era finalizzato a sviluppare un sistema per la memorizzazione delle informazioni relative al trattamento sanitario dei pazienti [Shultz 1986]. Tali informazioni dovevano essere rapidamente e facilmente ricercabili ed analizzabili, al fine di permettere:

  • un’anamnesi completa di un paziente in cura
  • lo sviluppo di ricerche epidemiologiche
  • la verifica degli standard medici di trattamento
  • la verifica finanziaria del sistema sanitario

Al fine di facilitare il più possibile l’utilizzo del sistema da parte del personale medico e paramedico, a quell’epoca non avvezzo all’uso di strumenti informatici, i ricercatori esplorarono le soluzioni più opportune per l’interfaccia utente del sistema. Siccome il sistema venne implementato su mainframe Control Data, si decise di utilizzare terminali alfanumerici ma dotati di touch-screen.
Il sistema subì molte evoluzioni durante gli anni di sviluppo, ed i ricercatori andarono sempre più nella direzione di presentare le informazioni in forma ipertestuale. Esse erano presentate sul terminale come schermate dette “frames”, e ci si poteva muovere da un frame all’altro tramite la pressione sullo schermo di aree sensibili dette “selezioni”.
PROMIS fu per molti anni uno dei sistemi per l’informatica medica più avanzati, e rimase in uso a lungo, fino agli anni ’90, grazie alla sua facilità d’uso e all’estensione delle informazioni contenute.
Per quanto riguarda gli aspetti ipertestuali del sistema, influenzò molti sistemi che lo seguirono, in particolare perché dimostrò che l’ipertesto poteva essere molto utile in applicazioni nel mondo reale, e non solo in laboratorio.

NLS – 1965-68

Doug Engelbart durante la demo alla FJCC

Un altro ricercatore che fu profondamente influenzato dalle visioni di Vannevar Bush è Douglas Carl Engelbart, il quale, allo Stanford Research Institute (SRI) di Menlo Park in California, costituì un laboratorio di ricerca sulle interfacce utente dei computer, denominato “Augmentation Research Center” (ARC). Egli voleva appunto aumentare o incrementare l’intelletto umano, mediante strumenti basati su computer che migliorassero la conoscenza dal punto percettivo e motorio, per meglio gestire i problemi connessi alla complessità dell’informazione e all’urgenza di una sua ricerca.
Durante la sua ricerca, egli mise a punto moltissime innovazioni, che oggi fanno parte integrante dello standard dei computer moderni: le interfacce utente multifinestra, il mouse, la posta elettronica, la teleconferenza, e appunto l’ipermedia.
Il programma di ricerca di Engelbart culminò verso il 1968 nella creazione di NLS (che stava per “oNLine System”), un sistema di costruzione e navigazione di strutture ipertestuali di documenti. Per facilitare l’uso di NLS Engelbart utilizzò molte idee per le quali oggi viene ricordato, come l’interfaccia video multifinestra e il mouse.
Secondo la sua visione, NLS era un portale che permetteva ad un individuo l’accesso al laboratorio personale di conoscenza accresciuta (“Augmented Knowledge Workshop”), ossia il luogo virtuale ove egli conserva tutti i propri dati e strumenti intellettuali e culturali, e ove egli collabora con altri individui dotati di analogo equipaggiamento [Engelbart 1968].
L’8 dicembre 1968, durante la FJCC (Fall Joint Computer Conference) Engelbart diede una spettacolare dimostrazione di NLS (20) che fece scalpore, in quanto mostrò il sistema utilizzando tutte le innovazioni che aveva messo a punto, in un epoca in cui la maggior parte delle interazioni degli utenti con i computer erano tramite telescrivente.
NLS era sviluppato per il computer time-sharing SDS 940 (21), e supportava fino a sedici stazioni di lavoro, ciascuna composta di un monitor di grandi dimensioni, un mouse a tre bottoni e un dispositivo chiamato tastierino ad “accordi”.

Engelbart e colleghi all’ARC

Il progetto ARC era sovvenzionato dall’Advanced Research Project Agency (ARPA) del dipartimento della Difesa statunitense; sia Engelbart che Robert Taylor, direttore dell’Information Processing Techniques Office (IPTO) dell’ARPA credevano fortemente nella feconda integrazione che avrebbe potuto esistere tra il sistema NLS e la rete di computers di cui l’ARPA stava sovvenzionando la creazione (ARPAnet).
E così, lo SRI fu inserito fra i primi nodi che avrebbero costituito la neonata rete, e fin dal 1967 venne deciso che l’ARC avrebbe avuto la funzione di Network Information Center (NIC), ossia avrebbe dovuto costituire la “biblioteca” di ARPAnet, dove tutti i documenti relativi avrebbero dovuto risiedere, e funzionare da centro di distribuzione della documentazione.
Al momento della nascita di ARPAnet, nel 1969, il SDS 940 (22) dell’ARC fu il secondo computer connesso alla rete, subito dopo la Università della California di Los Angeles (UCLA) - dove era situato il Network Measurement Center - ma prima della Università della California di Santa Barbara (UCSB) e della Università dello Utah.
Tutti i documenti relativi allo sviluppo della rete vennero memorizzati in NLS, ed erano ovviamente consultabili via ARPAnet. Fino verso la metà degli anni ’70, l’ARC funzionò effettivamente come Network Information Center di ARPAnet.
Attorno a quegli anni il laboratorio ARC subì una grave crisi (23); già a partire dal 1971 gran parte dei ricercatori aveva cominciato a lasciarlo e gli sponsor a smettere di sovvenzionarlo. L’ARPA cessò il suo supporto nel 1974, e nel 1977 lo SRI vendette l’intero progetto alla Tymshare, una società di servizi di telecomunicazione.
Tymshare, interessata a NLS per l’automazione d’ufficio, ribattezzò il sistema “Augment” e ne tentò la commercializzazione integrandolo alla propria rete TYMNET (24), ma non ebbe un significativo successo commerciale. Nel 1980 “Augment” venne nuovamente venduto alla McDonnell Douglas, ma nel corso degli anni ’80 il sistema scivolò lentamente nell’oblio.

NLS

Il maggior problema di NLS stava nel fatto che era stato progettato per essere potente, ma non particolarmente semplice da imparare. Utilizzava una struttura di testo rigorosamente gerarchica (“outline”), utile nel corso dei primi sviluppi di un nuovo testo, ma poi troppo rigida per il successivo sviluppo.
Inoltre, nonostante l’utilizzo del mouse, non aveva un’interfaccia utente molto amichevole, e richiedeva l’uso di codici mnemonici molto criptici. Ad esempio, l’utente che voleva utilizzare il tastierino ad accordi doveva imparare un codice binario a 5 bit per inviare i comandi.
Inoltre, proprio l’aver fatto parte della rete ARPAnet fin dall’inizio, aveva messo in luce uno dei problemi filosofici dell’intero progetto ARC, ossia quello di insistere sul time-sharing su mainframe in un momento in cui ci si muoveva verso macchine in rete fra loro, inizialmente minicomputer, che però venivano velocemente sostituiti da microcomputer e workstations.
Ciononostante, l’eredità dell’ARC continuò a vivere: molti dei ricercatori che si erano fatti le ossa all’ARC si ritrovarono poi allo Xerox PARC (25), trasferendo nel progetto che porterà alla creazione dello Xerox Alto gran parte delle idee sviluppate dal progetto di Engelbart.

HES -1967

Andries Van Dam

Verso la metà degli anni ’60 Ted Nelson collaborò con un suo vecchio compagno di college, Andries Van Dam, allora impegnato come ricercatore in un progetto alla Brown University, che avrebbe portato nel 1967 alla creazione di HES (Hypertext Editing System), un sistema di creazione di strutture ipertestuali per il mainframe IBM S/360.
Le idee di Nelson stimolarono il lavoro iniziale di Van Dam sul progetto, che però poi si concentrò maggiormente sulle caratteristiche di editing e formattazione; in pratica, HES fu uno dei prototipi dei sistemi di word processing moderni.
Nel sistema furono implementate le funzioni di collegamento ipertestuale – monodirezionale - tra una parte e un’altra di un documento (non però fra documenti diversi), e, nonostante i limiti, grazie a ciò HES può essere considerato come il primo sistema ipertestuale funzionante.
Nonostante la sua inefficienza, dovuta alla sua concezione prototipale, al momento della sua maggiore diffusione era in uso in più di 2250 installazioni [VanDam 1971], per la preparazione di articoli, tesi, manuali, ecc. Una delle più significative installazioni era il Manned Spacecraft Center della NASA a Houston, dove HES venne utilizzato per la gestione della documentazione del programma spaziale Apollo.

FRESS - 1969
Nel 1969 Andries Van Dam passò una settimana in visita presso l’ARC di Engelbart, dove osservò con attenzione NLS. Fondendo le migliori caratteristiche di HES e di NLS (26), Van Dam creò il nuovo sistema FRESS (27) (File Retrieval and Editing System).
Varie furono le innovazioni introdotte da FRESS rispetto a HES, le più importanti delle quali furono:

  • l’introduzione della possibilità di aggiungere, alle normali informazioni di tipo testuale, anche informazioni di tipo grafico (che potevano essere visualizzate grazie a speciali terminali grafici come l’Imlac PDS);
  • la possibilità di usare caratteri non occidentali (greco, cirillico, ebraico, ecc.) e simbolici, come conseguenza della gestione di informazioni grafiche;
  • i collegamenti ipertestuali bidirezionali (mentre in HES erano unidirezionali);
  • le performance rimanevano le stesse indipendentemente dalla dimensione dei documenti editati;
  • venne implementata una funzione di “undo”.

Gli ipertesti potevano essere creati mediante un editor interattivo, che permetteva l’inserimento nel testo di speciali marcatori, i quali diventavano la sorgente di un collegamento che portava a punti di destinazione, all’interno dello stesso testo, o di altri testi. Questi collegamenti potevano essere di due tipi: etichette, collegamenti monodirezionali verso un elemento singolo come un’annotazione, una definizione o una nota a piè pagina, o salti, collegamenti bidirezionali che potevano essere seguiti nelle due direzioni. Ai collegamenti potevano essere associate delle parole chiave che diventavano utili al momento della ricerca delle informazioni.
Grazie alla possibilità di mischiare liberamente testo ed immagini, FRESS divenne quindi il primo sistema ipermediale.
Sviluppato in assembler su un sistema IBM S/360 sotto sistema operativo time-sharing (28) VM/CMS, FRESS fu usato alla Brown University per più di vent’anni per la preparazione di documenti, sia on-line che per la stampa.

ZOG - 1972
Nel 1972, alcuni ricercatori della Carnegie Mellon University svilupparono, come esperimento di scienze cognitive, il sistema ZOG (29), un’interfaccia utente a menu per un database multiutente di informazioni memorizzate su un mainframe IBM [Akscyn 1987]. La ricerca venne però accantonata a causa dell’inadeguatezza della tecnologia usata (telescriventi a 30 caratteri al secondo).
Il lavoro su ZOG fu ripreso nel 1975, dopo che la comparsa di PROMIS ne aveva stimolato la ripresa; dal 1975 al 1980 esso venne sviluppato per il PDP-10, il VAX e il C.mmp (30). ZOG forniva un ambiente ipertestuale che permetteva la gestione semplificata della conoscenza. Essa era organizzata in una rete di nodi chiamati frames, i quali a loro volta consistevano in un titolo, una descrizione, una linea di comandi ZOG, e un insieme di voci di menu (chiamate selezioni) le quali conducevano ad altri frames; le informazioni memorizzate erano solamente testuali.
La ricerca su ZOG era sponsorizzata dall’Office for Naval Research statunitense, e nel 1980 questo portò ad un test del sistema “sul campo” a bordo della portaerei nucleare USS Carl Vinson. Una rete di 28 workstation PERQ forniva all’equipaggio una serie di manuali di manutenzione on-line, un sistema di gestione progetti e l’interfaccia ad un sistema esperto (AirPlan, anch’esso sviluppato alla CMU).

Aspen Movie Map - 1978

Aspen Movie Map – Schermata che mostra i comandi di navigazione sovrapposti alle immagini della città

Nel 1978, Andrew Lippman dell’Architecture Machine Group del MIT, fu a capo di un team di ricercatori che svilupparono un rivoluzionario sistema ipermediale che aveva molti punti in comune con la realtà virtuale. Esso, chiamato Aspen Movie Map, permetteva agli utenti una passeggiata virtuale ed interattiva attraverso la città di Aspen, Colorado. Il sistema fu descritto a fondo nella tesi di dottorato di Bob Mohl [Mohl 1981], ricercatore del gruppo.
Tramite quattro telecamere, montate su un furgone e puntate in differenti direzioni, erano state effettuate riprese per tutta la città di Aspen. A queste riprese montate e “ricucite”, erano state aggiunte migliaia d’immagini fisse, frammenti audio e una grande mole di dati sui diversi punti salienti di Aspen, e il tutto era stato inciso su dischi ottici di tipo laserdisc.
Il sistema consisteva in un computer con due grandi schermi touch-screen (31) a cui erano stati collegati diversi laserdisc; il primo monitor mostrava le immagini delle riprese, mentre sul secondo era mostrata una mappa delle strade di Aspen, indicando la posizione corrente.

Bob Mohl dimostra Movie Map

L’utente poteva scegliere, tramite la pressione del dito sui vari bottoni che apparivano sovraimposti alle immagini sullo schermo, diversi percorsi predefiniti, e di spostarsi dall’uno all’altro tramite collegamenti. I bottoni permettevano di scegliere di muoversi in avanti, indietro, a destra o a sinistra. Inoltre, premendo un punto della mappa, si era istantaneamente trasportati nel punto corrispondente. In certi punti salienti, come di fronte ad alcuni edifici principali di Aspen, l’utente poteva volendo entrare e navigare all’interno.
L’Aspen Movie Map non era una vera applicazione, nel senso che non aveva uno scopo ben predefinito; era piuttosto una dimostrazione avanzata di quello che era possibile fare con la tecnologia del momento. Il sistema era nato da un’idea di uno studente del MIT, Peter Clay, che aveva filmato i corridoi interni dell’istituto.
Il progetto aveva avuto l’appoggio di Nicholas Negroponte - direttore dell’Architecture Machine Group, e che aveva fornito i fondi tramite il Cybernetics Technology Office dell’agenzia DARPA – che chiamò Movie Map “uno dei primi esempi di multimedia interattivo”.

EDS - 1979
Nei tardi anni ’70, Andries Van Dam continuò l’evoluzione dei suoi sistemi ipermediali, sviluppando EDS (Electronic Document System), che permetteva collegamenti ipermediali anche tra immagini grafiche. Un’altra innovazione rilevante era l’uso d’immagini “thumbnail”, che avevano fondamentalmente due funzioni:

  • mostrare una cronologia di spostamenti fra collegamenti (in modo da informare l’utente sulla sua attuale posizione nella cronologia);
  • mostrare graficamente i collegamenti in forma di albero gerarchico.

EDS conteneva tre sottosistemi: Picture Layout System, Document Layout System, e Document Presentation system.

 

Gli anni ’80: l’ipertesto diventa commerciale

Con l’inizio degli anni ’80, la ricerca sui sistemi ipertestuali ed ipermediali cominciò ad uscire dai laboratori delle università e dei centri di ricerca, per approdare in quelli delle aziende commerciali, le quali finalmente iniziarono a guardare con interesse alle potenzialità fornite da insiemi destrutturati ma organizzati di informazioni.
Parallelamente, cominciarono ad essere disponibili computers personali (microcomputer e workstation) dotati d’interfaccia grafica, sulla quale era possibile implementare, efficientemente ed a costo relativamente basso, sistemi ipermediali particolarmente evoluti e piacevoli da usare.
Questi due fattori portarono quindi alla creazione di moltissimi sistemi ipertestuali, e quasi tutti divennero dei prodotti commerciali; indicheremo quelli più significativi, ma è da notare che però solo HyperCard della Apple Computers raggiunse un sensibile successo commerciale.

KMS -1981
Nel 1981, due fra i principali sviluppatori di ZOG, Donald McCracken e Robert Akscyn, fondarono la Knowledge Systems, Inc., e nel 1983 rilasciarono una versione commerciale di ZOG che prese il nome KMS (Knowledge Management System). Questa versione, per le workstation UNIX Sun e HP-Apollo, sfruttava le caratteristiche avanzate delle interfacce utente grafiche di questi sistemi.
In KMS le informazioni (testo, grafica e immagini) erano contenute, come in ZOG, in un insieme di frames, ossia spazi di lavoro della dimensione di una schermata. In KMS non vi erano finestre sovrapposte: durante la navigazione, un frame sostituiva completamente il precedente. Inoltre, non essendo possibile lo scorrimento all’interno del frame, quando la crescita delle informazioni all’interno di un frame raggiungeva il limite dimensionale dello schermo, non rimaneva altra soluzione che dividerlo in due o più frames collegati.
Qualsiasi parola in un frame poteva costituire un collegamento ad un altro frame, oppure eseguire degli script (scritti in un linguaggio chiamato KMS Action Language) o dei programmi esterni attivati tramite il sistema operativo. Questi collegamenti non erano inseriti all’interno del testo, ma mantenuti separatamente in un database.
Anche se era incoraggiata una struttura gerarchica, specialmente al fine di non disorientare l’utente, era possibile creare anche interconnessioni libere e molto complesse. L’utente poteva navigare fra i frames cliccando con il mouse sui collegamenti o sui tasti di menu riportati alla base di ogni frame.
KMS permetteva in qualsiasi momento la modifica delle informazioni contenute nei frame o dei collegamenti (non esisteva perciò un editor separato); anche la creazione di collegamenti era facilissima: bastava cliccare su una parola e subito il sistema creava un nuovo frame vuoto e collegato alla parola stessa.
Per questo motivo KMS era particolarmente adatto ad applicazioni di collaborazione on-line: le variazioni apportate da un utente erano immediatamente visibili agli altri. Esisteva però un meccanismo di protezione per proteggere le informazioni contenute in un frame, sia dalla modifica, che eventualmente anche dalla lettura da parte di utenti non autorizzati.
Una delle caratteristiche più interessanti di KMS era che le informazioni erano distribuite, ossia potevano risiedere su più macchine accessibili tramite rete locale. I collegamenti potevano perciò in modo trasparente portare la navigazione dell’utente anche su altre macchine. Le informazioni sulla reale collocazione di ciascun frame erano contenute in un database master, che veniva replicato su ciascuna macchina che conteneva una porzione del sistema.

Guide - 1982
Guide nacque nel 1982 all’Università di Canterbury nel Kent, come progetto di ricerca guidato da Peter Brown [Brown 1987]. La ricerca di Brown si concentrò non tanto sulla sofisticazione del sistema, quanto sulla facilità d’uso anche per i principianti. L’utente non doveva imparare che pochissime manovre, tutte da compiere con il mouse, per riuscire a navigare e a modificare il documento ipertestuale.
A differenza della maggior parte degli altri sistemi ipertestuali, Guide funzionava in base al modello della espansione di una determinata parola (“bottone”, nel gergo di Guide) in un testo associato, che sostituiva a video la parola originale; eventualmente l’utente poteva ricomprimere il testo espanso nel bottone originale.
La maggiore limitazione di Guide stava proprio in questo modello, il quale, come NLS, enfatizzava la struttura gerarchica di un documento; i collegamenti liberi tra le varie parti del testo, e tra testi diversi, erano permessi ma non funzionavano come “salti” da un punto all’altro, ma come casi speciali di sostituzione del testo.
Questi speciali collegamenti, detti “collegamenti di definizione”, potevano collegare una parola (origine del collegamento) ad un frammento di testo nello stesso documento o in un altro (destinazione del collegamento); per fare un esempio, alla frase “vedi teorema 15” poteva essere collegato il frammento di testo che costituiva la definizione del teorema 15.
Cliccando sulla parola origine, essa veniva sostituita in linea dalla definizione associata. L’utente poteva essere quindi informato senza che il suo punto di lettura corrente fosse spostato ad un altro punto del testo.
Questo modello facilitava l’uso ai principianti, che non si “perdevano” all’interno del labirinto ipertestuale, e facilitava altresì la manutenzione dei collegamenti; per contro, veniva persa la flessibilità delle libere associazioni date dai collegamenti senza limitazioni.
Inizialmente Guide fu sviluppato per la workstation grafica ICL Perq sotto UNIX, ma nel 1984 venne convertito in un prodotto commerciale per il Macintosh dalla Office Workstation Ltd. (OWL); nel 1987 venne realizzata una versione per Microsoft Windows, diventando il primo sistema ipertestuale multipiattaforma. Grazie a questa caratteristica, e alla già citata facilità d’uso, ebbe un buon successo e una discreta diffusione; nel 1989 la OWL venne acquistata dalla Matshushita e divenne Panasonic OWL, e lentamente spostò la sua attività principale dai sistemi ipertestuali allo sviluppo di software per dispositivi elettronici consumer.

HyperTIES – 1983

HyperTIES in bianco e nero

Nel 1982 lo Human-Computer Interaction Lab (HCIL) dell’Università del Maryland iniziò la ricerca su un modello di enciclopedia elettronica per l’IBM PC, che venne chiamato The Interactive Encyclopedia System (TIES) [Schneiderman 1987].
Il sistema fu poi evoluto in un prodotto commerciale chiamato HyperTIES, pubblicato dalla Cognetics Corporation. Le prime versioni erano solamente testuali e utilizzavano i tasti freccia per la navigazione; in seguito fu aggiunto il supporto per la grafica SVGA del PC, le funzioni video digitali DVI (Digital Video Interactive) e la navigazione tramite mouse.
Venne anche creata una versione per workstation Sun sotto UNIX SUNOS e l’ambiente grafico NeWS.
In HyperTIES le informazioni erano contenute in “articoli”, costituiti da un titolo, una definizione (una breve descrizione del contenuto) e il testo vero e proprio, che poteva essere lungo anche più di una schermata (l’interfaccia utente permetteva lo scrolling).
Gli articoli erano collegati tra loro da links. Uno dei principali ricercatori dell’HCIL, Ben Schneiderman, ebbe l’idea di utilizzare il testo stesso come marcatore della sorgente di un collegamento, un concetto che egli chiamò “embedded menus” o “illuminated links”: le parole sorgenti dei links erano evidenziate con un colore diverso; inoltre, passando con il cursore su un link la parola si “illuminava” (la luminosità dei caratteri che la componevano aumentava) [Koved 1986].

“illuminated links” in HyperTIES

Quando un collegamento veniva selezionato, l’articolo destinazione veniva mostrato in una finestra separata; la conferma della selezione causava la sostituzione dell’articolo sorgente con quello destinazione nella finestra principale. HyperTIES teneva conto del percorso effettuato e quindi permetteva all’utente di tornare indietro; inoltre, incorporava anche un sistema di indicizzazione e di ricerca booleana.
Il formato utilizzato internamente da HyperTIES era ASCII puro, e che quindi tutto il layout della pagina (il posizionamento dei bottoni, della grafica, e la destinazione i collegamenti) erano specificati tramite l’inserimento all’interno del testo ASCII come “markup codes”. Questo è particolarmente da notare in quanto è analogo al sistema utilizzato attualmente dall’HTML (32).
Il numero di luglio 1988 delle Communication dell’ACM conteneva otto articoli dalla prima conferenza sull’ipertesto; di esso, vennero create tre versioni elettroniche, “Hypertext On Hypertext”, e HyperTIES venne scelto per l’implementazione IBM PC (33).
Nel 1989 Schneiderman e Greg Kearsley realizzarono il primo libro contemporaneamente pubblicato su carta e in formato elettronico, “Hypertext Hands-On !” [Schneiderman 1989].
Infine, la Hewlett-Packard usò HyperTIES per distribuire in 15 lingue la documentazione della sua stampante LaserJet 4, forse la prima distribuzione mondiale di un ipertesto prima del web [Schneiderman 1998].

Intermedia - 1985

Norman Meyrowitz

Nel 1985 Andries Van Dam creò la quarta generazione della sua lunga genealogia di sistemi ipermediali. Questo sistema, chiamato Intermedia, venne sviluppato da Van Dam con la collaborazione di Norman Meyrowitz, prima suo studente, e poi assistente.
Per lo sviluppo di tale sistema, nel 1985 venne fondato all’interno della Brown University l’Institute for Research in Information and Scholarship (IRIS) sotto la direzione di Norman Meyrowitz. L’intenzione di IRIS era di creare un modello in cui la funzionalità ipermediale venisse gestita a livello del sistema operativo stesso, in modo che gli ipercollegamenti potessero essere stabiliti tra qualsiasi applicazione gestita dal sistema operativo.
Intermedia venne presentato fra il 1985 e il 1987, ed era un sistema ipertestuale per il Macintosh che – sfruttando in pieno le funzioni grafiche di questa piattaforma - permetteva all’utente la modifica on-line di tutte le componenti informative che venivano presentate dal sistema: testo, grafica, collegamenti, ecc.

Intermedia

In realtà, gli sviluppatori non implementarono un nuovo sistema operativo, ma crearono un ambiente installato al di sopra del sistema operativo Macintosh A/UX (34) 1.1. L’ambiente Intermedia consisteva in un gruppo di applicazioni integrate, con una interfaccia utente comune:

  • un editor di testo (InterText)
  • un editor grafico (InterDraw)
  • un visualizzatore d’immagini (InterPix)
  • un editor di timeline (InterVal)
  • un visualizzatore di modelli tridimensionali (InterSpect)
  • un editor di animazioni (InterPlay)
  • un editor di video (InterVideo)

Il sistema supportava la creazione (mediante il mouse ed in modo molto semplice) di collegamenti bidirezionali fra qualsiasi tipo di documento gestito dal sistema. A ciascun collegamento l’utente poteva aggiungere attributi, sotto forma di parole chiave, che esplicassero la relazione simboleggiata dal collegamento; tali parole chiave potevano essere utilizzate per filtrare eventuali ricerche. I collegamenti non erano incorporati nei documenti, ma memorizzati in un database, separatamente dal contenuto informativo. Siccome il sistema poteva gestire diversi insiemi di collegamenti, ogni utente poteva costruirsi la propria “ragnatela” di collegamenti.
Inizialmente Intermedia fu utilizzato internamente alla Brown University, con un uso intensivo in tutte le facoltà, sia scientifiche che umanistiche; ma nell’aprile del 1989, la versione 3.0 venne rilasciata come prodotto commerciale per il Macintosh.
Purtroppo, dopo la versione 4.0, la mancanza di fondi per ulteriori sviluppi, e l’incompatibilità con il nuovo sistema operativo Macintosh rilasciato da Apple, IRIS dovette cessare lo sviluppo di Intermedia. Meyrowitz lasciò quindi IRIS per fondare Macromedia, dove sviluppò Shockwave (35).

Xerox NoteCards - 1985

Xerox NoteCards

NoteCards - sviluppato in linguaggio LISP allo Xerox PARC per una serie di macchine per intelligenza artificiale (36) - era un sistema ipermediale di uso generale, che venne integrato all’interno del sistema di sviluppo in uso sulle macchine [Halasz 1987].
NoteCards, rilasciato nel 1985, utilizzava due costrutti: le “notecards” (schede) e i “links” (collegamenti). Per gestire grandi quantità di schede, esistevano inoltre due tipi speciali di scheda, “browser” (navigatore) e “filebox” (archivio) che fungevano da contenitore per le schede.
Le schede potevano accogliere testo e grafica rappresentavano una collezione di idee e altre informazioni che potevano essere messe in collegamento tra loro, funzionando da struttura per memorizzare e reperire le informazioni.
Tutti gli oggetti erano visualizzati come finestre sullo schermo grafico ad alta risoluzione - tipico delle macchine Xerox dell’epoca - ed erano manipolabili e modificabili con il mouse e la tastiera. Ogni scheda, una volta chiusa, appariva come una icona, ed erano disponibili tipi diversi di icone per indicare il diverso contenuto della scheda.
I collegamenti tra schede apparivano come una etichetta che specificava la relazione tra la scheda di origine e quella destinazione. Cliccando con il mouse un collegamento, veniva aperta la scheda destinazione.
Le schede “browser” apparivano come un diagramma strutturale dell’albero delle schede e dei collegamenti che le organizzavano. Le linee che rappresentavano i collegamenti potevano essere facilmente modificate dall’utente con il mouse per variare l’organizzazione dei nodi (37).
Le schede “filebox” funzionavano da contenitori per le schede, e siccome un filebox poteva contenere altri filebox, questa struttura poteva essere gerarchica.
NoteCards venne usato estensivamente in Xerox e in altri enti sia per l’organizzazione informale delle informazioni; una versione dedicata, l’Instructional Design Enviroment (IDE) venne messa a punto per essere utilizzata per costruire il sistema sistemi di insegnamento on-line (38).

Symbolics Document Examiner - 1985

Symbolics Document Examiner

Nel 1985 Janet Walker della Symbolics, Inc. (39) creò il Document Examiner, un sistema ipertestuale dedicato alla navigazione della guida in linea delle workstation prodotte dall’azienda [Walker 1987].
Le ottomila e più pagine dei dodici volumi della versione cartacea dei manuali d’uso vennero convertiti in un ipertesto con più di 10000 nodi d’accesso e 23000 collegamenti.
Il Document Examiner permetteva la sola lettura dei documenti, in quanto per prepararli era necessario l’editor Concordia. Ambedue i programmi – come d’altronde tutto il software di sistema delle macchine Symbolics – erano scritti in linguaggio LISP.
Oltre alle normali funzioni ipertestuali, comuni anche ad altri sistemi, il sistema permetteva una ricerca rapida di una sottostringa del testo; la più interessante innovazione era la possibilità di impostare dei “segnalibri” per segnalare punti di accesso preferiti all’insieme dei documenti (40).

Writing Environment
Writing Environment (WE) [Smith 1986] venne creato alla Università del North Carolina con lo scopo di costituire uno strumento per la creazione di nuovi documenti. Esso si basava su un modello cognitivo del processo di comunicazione dell’informazione, in base al quale un insieme di idee e nozioni, fra loro collegate in una rete di deboli associazioni, veniva trasformato in una struttura gerarchica temporanea che facilitava l’organizzazione e la redazione di un documento, e infine in una struttura lineare destinata sia alla consultazione online che alla stampa su carta.
WE mostrava le informazione contemporaneamente nelle sue diverse forme (reticolare, gerarchica, lineare) in diverse finestre dello schermo.
La struttura ipertestuale permetteva di raccogliere le idee e le informazioni esterne nella struttura reticolare e di convertirla progressivamente in una struttura gerarchica. Le struttura gerarchica aiutava nello sviluppo e riorganizzazione del documento. Infine, la struttura lineare era il risultato del processo, pronto per la stampa o la consultazione on-line.

Neptune - 1986
Neptune venne sviluppato alla Tektronix con l’intenzione di costituire un modello di database in cui potessero essere memorizzati i dati utilizzati in ambienti CAD elettronici o CASE (41) (come ad esempio circuiti elettrici, layout di circuiti integrati, descrizioni logiche nel primo caso, o codice sorgente e definizioni funzionali nel secondo), con tutte le connesse problematiche di mantenere traccia dell’evoluzione di un insieme di documenti, con tutte le versioni progressivamente sviluppate.
Neptune venne implementato per workstation UNIX, e con una struttura a strati che definiva una forte separazione tra l’interfaccia utente, il funzionamento ipertestuale e la memorizzazione dei dati. Quest’ultima era fornita da un server software chiamato Hypertext Abstract Machine (HAM). La HAM permetteva accesso multiutente anche distribuito in rete e una efficiente protezione contro i crash di sistema mediante un approccio transazionale.
Sopra la HAM venivano costruiti uno o più strati applicativi, che trasformavano le informazioni memorizzate in formati percepibili e manipolabili dall’utente (ad esempio, compilatori, editor grafici per CAD, ecc.). Infine, sopra tutto vi era uno strato di interfaccia utente che permetteva all’utente di interagire con gli strumenti applicativi.
I ricercatori della Tektronix crearono la HAM in modo che essa potesse memorizzare nei propri nodi qualsiasi tipo di informazione (che in realtà veniva salvata come dati binari, senza alcun tipo di interpretazione), e un complesso sistema di connessione fra i nodi (l’ipergrafo), completo di tutte le versioni successive, nei vari stadi di sviluppo. I collegamenti potevano originarsi o terminare in qualsiasi parte del contenuto del nodo, fosse esso testuale o grafico.
In questo modo, non vi poteva mai essere il problema (oggi assai noto nel Web) di collegamenti che puntano a documenti non più esistenti o fortemente variati. Ciascun collegamento può puntare alla versione più recente del nodo destinazione, oppure a qualsiasi versione precedente del nodo stesso.
Per avere una efficiente memorizzazione, evitando le copie ridondanti della stessa informazione, le versioni successive di un nodo venivano conservate all’interno della HAM come “delta” o differenze dalla versione precedente.
L’interfaccia utente di Neptune venne sviluppata interamente in Smalltalk-80, forse il sistema di sviluppo a quei tempi più adatto alle specifiche necessità. Essa era costituita da tre browsers: un graph browser, che mostrava in modo pittorico l’insieme di collegamenti fra i nodi; un document browser che supportava la navigazione di una struttura di nodi e di collegamenti, ed infine un node browser, che mostrava un singolo nodo con tutti i suoi contenuti ed attributi.
Questi browser potevano essere specializzati per specifiche applicazioni, ed integrati da altri browser che mostrassero le informazioni in modo più specifico (attribute, version, difference, demon browser, ecc.).
La caratteristica forse più significativa di Neptune fu quella di implementare nella realtà il sogno che Ted Nelson aveva fatto per Xanadu, ossia di un sistema ipertestuale che mantenesse tutte le versioni successive dei documenti al suo interno. Oggi, la principale critica che Nelson muove al Web è proprio il fatto che un documento, quando viene variato, perde per sempre le sue versioni precedenti.

Apple HyperCard - 1987
HyperCard venne creato da Bill Atkinson (42) nel 1987. Atkinson cedette il suo prodotto alla Apple a condizione che esso venisse fornito gratuitamente agli utenti. Questo accordo venne poi a scadere quando nel 1989 apparve la versione 2.0, completamente rinnovata e migliorata da Kevin Calhoun, e da quel momento, HyperCard divenne un prodotto a pagamento.
HyperCard, come NoteCards della Xerox, utilizzava la metafora della scheda (card), ciascuna delle quali era contenuta in una singola schermata del video da 9” del Macintosh originale.
Le schede venivano raccolte in stack (mazzi) che l’utente poteva scorrere. I collegamenti tra schede venivano creati molto semplicemente, inserendo nella scheda sorgente un’icona o bottone che fungeva da ancora, e cliccando col mouse sulla scheda destinazione.
Era possibile anche creare un collegamento verso una scheda di un altro stack, ma ciò non era altrettanto semplice; inoltre non era proprio previsto che il collegamento portasse verso uno stack risiedente su un’altra macchina raggiungibile in rete (43).

Apple HyperCard

Nel 1987 a HyperCard venne aggiunto un linguaggio di programmazione, HyperTalk, scritto da Dan Winkler, potente e facile da usare. Originariamente concepito per incrementare l’interattività delle funzioni ipertestuali, permetteva la manipolazione sia dei dati che dell’interfaccia utente, e per merito della sua potenza venne utilizzato per sviluppare sistemi anche più complessi di un semplice ipertesto. Per questo motivo, HyperCard era talvolta visto più come sistema di sviluppo di programmi che di ipertesti.
HyperCard è stato compatibile con i sistemi operativi Macintosh a partire dalla versione 6 fino alla versione 9; ma con l’apparire della versione 10 (44), non è stato più compatibile ed è stato tolto dal catalogo Apple nel marzo del 2004, dopo che non era più stato aggiornato da molti anni.
La Apple fece molti errori di marketing nella gestione del prodotto HyperCard, che ne rallentarono la diffusione, ma il concetto di stack ebbe un grande successo, prova ne fu che nacquero molti cloni (sia per Macintosh, come SuperCard, Plus, Revolution, che per Windows, come ToolBook (45)). Molti affermano che – prima dell’arrivo del web - HyperCard sia il sistema che più ha contribuito alla popolarizzazione del modello di ipertesto.

 

Gli anni ’90: la nascita del Web

WorldWideWeb - 1990
Uno dei tanti ricercatori che pensavano che le strutture ipertestuali fossero quelle ideali per memorizzare informazioni non strutturate e molto parcellizzate era Tim Berners-Lee, che lavorava al CERN di Ginevra come consulente e programmatore; durante i suoi anni in Svizzera, egli si era concentrato sulle tecniche di memorizzazione delle informazioni prodotte – non solo al CERN, ma in tutto il mondo – in modo che fosse possibile ritrovarle e rivederle secondo modalità non lineari e non predefinite.
Tra giugno e dicembre del 1980, Berners-Lee scrisse un programma per gestire le annotazioni, chiamato “Enquire Within Upon Everything (46)”, che girava su un computer Norsk Data sotto sistema operativo SINTRAN-III.

Tim Berners-Lee

Enquire permetteva di impostare dei collegamenti tra nodi arbitrari all’interno delle pagine di annotazione; ciascun nodo aveva un titolo, una tipologia, e una lista di collegamenti bidirezionali associati. Esso venne usato da vari gruppi di ricerca, ma non ebbe una diffusione significativa al di fuori del CERN.
Nel 1989 Berners-Lee scrisse un memorandum [Berners-Lee 1989] - che è ormai diventato parte della storia di Internet – in cui proponeva un modello di interconnessione delle informazioni in una struttura a ragnatela, che permettesse di navigarle in modo non lineare tramite hyper-links (ipercollegamenti).
La proposta suscitò un discreto interesse e Berners-Lee, insieme a Robert Caillau, si misero al lavoro per espandere la specifica e definire tutti i meccanismi e i protocolli [Berners-Lee 1990].
La ragnatela di ipercollegamenti doveva travalicare i limiti del singolo sito, e interconnettere tutti i siti al mondo che memorizzassero informazioni; si pensò pertanto a server di informazioni, a cui si potesse accedere tramite un client (detto browser). Le pagine di informazioni venivano richieste dal browser al server, e il server le forniva in un formato standardizzato chiamato HTML (Hyper-Text Markup Language) e tramite un protocollo di trasferimento chiamato HTTP (Hyper-Text Transfer Protocol).
Ogni pagina ed ogni altra risorsa (immagini, files, ecc.) poteva essere raggiunta tramite uno specifico indirizzo, denominato URL (Uniform Resource Locator) che indicava il protocollo da usare per raggiungerlo, il server su cui risiedeva, il percorso all’interno del server, il nome e il tipo della risorsa in questione.

Il browser WorldWideWeb del CERN

Il capo di Berners-Lee, Mike Sendall, approvò il progetto per lo sviluppo di un browser con editor integrato per un sistema ipertestuale, da scrivere su un NeXT Cube (47), e Tim si mise al lavoro. Dato che la ragnatela di collegamenti era da estendere a tutto il mondo, Berners-Lee chiamò il suo sistema WorldWideWeb, presto abbreviato in WWW [Berners-Lee 1993].
Nel novembre del 1990, diventava disponibile la prima pagina (48) sul primo server HTTP della storia. Il giorno di Natale dello stesso anno, Berners-Lee finiva anche il browser WorldWideWeb, che veniva poi rilasciato internamente al CERN nel marzo 1991 (49).
In pochi mesi diversi nuovi servers si aggiunsero, dapprima in Europa (specialmente fra gli istituti di ricerca collegati al CERN) e poi negli Stati Uniti e nel resto del mondo. Nel gennaio del 1993 esistevano circa 50 HTTP servers nel mondo, nell’ottobre erano già 200, e nel giugno del 1994 erano diventati 1500.
Rapidamente il World Wide Web soppiantò i più primitivi Gopher e Archie (50), e altrettanto rapidamente cominciarono a diffondersi anche al di fuori del mondo informatico gli acronimi WWW, HTTP, HTML e URL.

Erwise, ViolaWWW, Cello – 1992-93

Cello (in funzione su Windows XP !)

Dopo il primo browser del CERN, apparvero rapidamente altri software che lo miglioravano in vari punti, come:

  • Erwise: rilasciato nell’aprile del 1992. Esso venne scritto da un gruppo di studenti dell’università di Helsinki (il loro dipartimento aveva sigla OTH, per cui il nome “erwise” era un gioco di parole con “otherwise”), ma poi gli autori del programma persero interesse e non venne sviluppato ulteriormente.
  • ViolaWWW: rilasciato nel maggio 1992, funzionava sotto UNIX. Esso venne scritto da Pei Wei, studente dell’UCB (University of California at Berkeley), utilizzando il potente interprete grafico chiamato Viola. Comprendeva la possibilità di scaricare “applets”.
  • Cello: rilasciato nel giugno del 1993, venne scritto da Thomas R. Bruce del Legal Information Institute alla Cornell Law School. Fu il primo browser ad essere concepito specificatamente per Windows; a parte questo, non aveva altre particolarità degne di nota.

Questi primi browser non erano particolarmente “amichevoli”. Ad esempio, sia Erwise che Cello non avevano la possibilità di inserire una URL, ma la navigazione era pertanto effettuabile solo visitando i collegamenti: essi caricavano all’inizio una pagina HTML di default, su cui l’utente doveva inserire i collegamenti alle URL di suo interesse (i “preferiti”).

Mosaic per X-Windows - 1993

Marc Andreessen

Finalmente, nel febbraio 1993 apparve il browser che avrebbe rivoluzionato per sempre il web. Il NCSA (National Center for Supercomputing Applications), centro di ricerca associato alla Università dell’Illinois a Urbana-Champaign, pubblicò un browser chiamato Mosaic, scritto da Marc Andreessen e Eric Bina, laureandi dell’Università dell’Illinois [Andreessen 1993].
Mosaic era liberamente scaricabile dal web stesso e altrettanto liberamente distribuibile. Oltre ad essere molto facile da installare, Mosaic era disponibile per le principali piattaforme del momento: UNIX/X-Windows, MS-Windows e Macintosh, e pertanto fu il primo browser ad essere multipiattaforma.
Rispetto ai browser concorrenti, Mosaic in più supportava suono, video, i bookmarks, e i forms per l’invio di informazioni, oltre ad essere il primo ad avere le immagini “inline”, ossia miste al testo. Mosaic spodestò tutti gli altri browser in uso all’epoca, compreso quello originale sviluppato al CERN, grazie alla sua potenza e naturalezza d’uso. Nel 1994 aveva una base di utenza di parecchi milioni, praticamente la totalità di utenti di Internet all’epoca.

Mosaic su UNIX

Nell’agosto del 1994 il NCSA assegnò i diritti commerciali alla Spyglass, Inc., che conseguentemente diede in licenza la tecnologia a più di cento società (compresa la Microsoft per il proprio Internet Explorer (51)); lo sviluppo di Mosaic venne terminato nel gennaio 1997.
Oltre al client Mosaic, al NCSA venne sviluppato anche un server HTTP, chiamato httpd, che poi venne commercializzato come Apache. Apache oggi contende all’omologo prodotto Microsoft la palma di software più usato sui server web di Internet (52).

Netscape
Nel febbraio 1994 Jim Clark, che aveva appena dato le dimissioni da presidente di Silicon Graphics Inc. - che aveva fondato nel 1982 - contattò Andreessen e gli chiese se era interessato a sfruttare commercialmente la sua creazione; quest’ultimo lasciò il NCSA ed insieme fondarono Netscape (53).

Jim Clark

Al fine di raggiungere la maggiore diffusione possibile, Andreeessen riscrisse il browser con lo scopo di renderlo più veloce, in modo da poterlo utilizzare anche con collegamenti a bassa velocità, tipo modem. L’originale Mosaic soffriva infatti del fatto che la velocità di trasmissione delle pagine non era stata per nulla ottimizzata, in quanto era stato creato in un ambiente, il NCSA, in cui le connessioni ad Internet erano ad alta velocità.
Nell’ottobre del 1994, Netscape rilasciò la versione beta del suo browser, chiamato Mozilla 0.96b; il primo rilascio commerciale, denominato Netscape Navigator 1.0, uscì invece il 15 dicembre.
Seguendo la tradizione Mosaic, il browser Netscape Navigator venne distribuito gratuitamente; l’intenzione era di farsi rapidamente un nome, stabilire quindi Navigator come standard de facto, e poi cominciare a guadagnare vendendo software di tipo server, sia per web, che per posta e groupware.
La strategia ebbe pienamente successo: Navigator divenne il browser preferito dalla maggior parte degli utenti di Internet, e verso la fine del 1995 Netscape deteneva l’85% del mercato, sia del software client che di quello server. A sottolineare questa crescita fulminea dell’azienda vi fu anche la prima offerta pubblica di vendita di azioni (IPO (54)), che fu quella di più grande successo della storia di Wall Street, con un valore assegnato a Netscape di circa due miliardi di dollari (55).

La “browser war”
Ma d’improvviso, nell’estate del 1995, la Microsoft entrò di prepotenza nel mercato dei browser: nel nuovo sistema operativo a 32bit di Microsoft, Windows 95 (56), c’era “di serie” il browser Internet Explorer, sviluppato sulla base del codice Mosaic ottenuto su licenza da Spyglass.
Tra Internet Explorer e Netscape Communicator scoppiò quella che è ricordata come la “browser war”, e Netscape ebbe la peggio, in quanto Microsoft utilizzò sia la sua enorme potenzialità di sviluppo (57), che il fatto di incorporare il browser all’interno dei propri sistemi operativi per stabilire Explorer come standard.
Quest’ultimo fatto venne denunciato da Netscape all’Antitrust come comportamento monopolistico. Iniziò una causa, ma già nell’autunno del 1996 Internet Explorer aveva conquistato un terzo delle quote di mercato, e nel corso del 1999 divenne il browser più utilizzato in assoluto. Anni dopo, Microsoft perse la causa e il giudice la condannò a separare il browser dal sistema operativo, ma ormai Microsoft aveva vinto la guerra del mercato e regnava incontrastata (su quello che, tra parentesi non era proprio un vero mercato, visto che tutti i prodotti in competizione erano pressoché gratuiti).
Il 31 marzo del 1998, la Netscape Corporation, nel tentativo di salvare il salvabile, rilasciò in pubblico dominio il codice sorgente di Communicator (il nuovo nome di Navigator). Mentre l’azienda continuava lo sviluppo, nacque una organizzazione indipendente no-profit, Mozilla.org, che prese in mano il sorgente di Communicator e si dedicò allo sviluppo di un browser open source, di libero uso e con sorgenti di libero utilizzo.
Nel novembre del 1998 Netscape venne poi acquistata dal gigante dei media e delle telecomunicazioni Time Warner-America On Line, e cessò di esistere come azienda indipendente, continuando però lo sviluppo e la distribuzione di browsers e altro software connesso a Internet. Alla fine del 2002, però, ogni sviluppo venne fermato e i programmatori spostati su altri progetti nel gruppo AOL-TimeWarner.
Ma proprio in questi mesi la “browser-war”, che pareva finita, si sta riaccendendo. Mozilla.org ha rilasciato un nuovo browser, Firefox, riscritto da zero rispetto agli antichi sorgenti Netscape, diretti discendenti dell’originale lavoro di Andreessen. Per molti, Firefox è decisamente superiore a Internet Explorer di Microsoft, ed è disponibile con analoghe caratteristiche su molte piattaforme, e pian piano sta erodendo la posizione di assoluto predominio di Explorer.

Altavista e la ricerca sul Web

La prima pagina di Altavista

Il principale problema sorto fin dall’inizio della formazione del World Wide Web era che esistevano delle oggettive difficoltà a trovare le informazioni in mezzo alla mole disponibile. Anche sapendo che le informazioni erano presenti da qualche parte, se non si aveva l’indirizzo giusto, era difficile trovare un punto di inizio per navigare la ragnatela di collegamenti fino al punto desiderato. Vennero create delle “directory” (una delle prime e più famose fu Yahoo! (58)) che organizzavano in strutture gerarchiche i principali indirizzi della rete. Questa però non era una soluzione funzionale; un po’ perché le informazioni, per loro natura, cambiavano continuamente, e continuamente se ne aggiungevano; e inoltre, perché una struttura gerarchica mal si adattava alla struttura non lineare e un po’ caotica della ragnatela.
Infine, una soluzione arrivò da un progetto sviluppato alla Digital Equipment Corp.
Il DEC Research Lab di Palo Alto aveva messo a punto un nuovo sistema – l’Alpha 8400 TurboLaser – che era in grado di eseguire funzioni di database in modo radicalmente più veloce degli altri sistemi. Per dimostrare la potenza del sistema, venne concepito un progetto di indicizzazione di tutte le pagine del web dell’epoca.
Il sistema messo a punto funzionava così: un computer dotato di un software denominato “Scooter”, scritto da un team di ricercatori del DEC Western Research Lab - guidato da Louis Monier - si aggirava senza sosta per il web, seguendo in modo metodico tutti i links contenuti nelle pagine web già visitate, e raccogliendo le pagine visitate.
Il contenuto delle pagine raccolte veniva analizzato e indicizzato da un altro software, creato invece dal Research Center di Palo Alto, e archiviato, insieme con la URL di riferimento, in un database installato su Alpha 8400 TurboLaser (con sistema operativo OpenVMS).
La prima scansione dell’intero web, eseguita nell’agosto del 1995, riportò circa 10 milioni di pagine visitabili, e, dopo qualche tempo per il test interno, il motore di ricerca Altavista aprì al pubblico il 15 dicembre 1995; il successo fu immediato, con 300.000 ricerche il primo giorno e 19 milioni di ricerche al giorno alla fine del 1996.
Quando qualcuno necessitava di trovare le pagine che riportavano una o più parole specifiche, bastava raggiungere la pagina http://altavista.digital.com e digitare le parole in questione. Il server di Altavista effettuava la ricerca all’interno dell’archivio e ritornava le URL delle pagine trovate.
Altavista dopo breve tempo venne affiancato da diversi altri motori di ricerca, talvolta più efficienti o con database più esteso, ma sempre basati sul concetto primigenio. La disponibilità e l’uso dei motori di ricerca rivoluzionò il modo di cercare le informazioni all’interno del World Wide Web.
Al giorno d’oggi alcuni affermano che le informazioni del Web – cresciute in modo veramente esponenziale - sono diventate così tante che anche i motori di ricerca non riescono più ad aiutare in modo effettivo: cercare una semplice parola può rimandare a milioni di pagine, il che è come non averne nessuna. E’ stato coniato un modo di dire: “è come cercare di bere da un idrante”. Questo è senz’altro vero; una ricerca efficace richiede abilità ed esperienza e talvolta una dose di fortuna. Ma è anche vero che, in ogni caso, cercare sul Web tramite un motore di ricerca è oggi il modo più efficiente per cercare qualunque tipo di informazione, e il primo passo per effettuare qualsiasi altra ricerca più approfondita.

 

L’Ipertesto nell’era del Web

Abbiamo visto come il modello ipertestuale originale si sia pian piano modificato ed affinato, abbia acquisito idiomi e meccanismi per poi essere implementato in quel modello di enorme, incredibile successo, che è il web dell’era di internet. Ma il web è veramente tutto?

Altri sistemi ipertestuali
A quasi dieci anni dalla nascita del Web, che spazio rimane per le ricerche nel campo dell’ipertesto ? La maggior parte delle persone – con comprensibili ragioni, d’altronde – pensa che il modello del web sia l’unico o il vero modello ipertestuale ed ipermediale.
Lo spazio, sia di ricerca che commerciale, per lo sviluppo di strumenti per la creazione di costruzioni ipertestuali si è fortemente ridotto, in quanto il web sembra soddisfare tutte le richieste in materia.
Alcuni sistemi, nati indipendentemente dal web (verso la fine degli anni ’80 – inizio dei ’90), vengono ancora attivamente sviluppati, anche se oggi spesso i sofisticati ipertesti costruiti con essi vengono poi esportati in modelli web.
Tra i più significativi, vogliamo ricordarne alcuni:

  • Microcosm – Esso è stato sviluppato a partire dal 1989 da parte di un gruppo di ricercatori dell’Università di Southampton nel Regno Unito, con l’iniziale intenzione di fungere da strumento per sperimentare alcune idee nel campo multimediale. A differenza di altri strumenti ipertestuali, che utilizzavano formati proprietari per la memorizzazione delle informazioni, Microcosm è stato un pioniere nel campo dell’utilizzo di formati “aperti” e standardizzati.
    In Microcosm non esistono markups e i collegamenti tra i documenti sono memorizzati in un database separato dall’informazione; i documenti possono essere creati con qualsiasi strumento supportato dal sistema operativo, e possono essere distribuiti in rete.
  • StorySpace – Esso è stato creato da Mark Bernstein, che poi ha fondato la Eastgate Systems per commercializzarlo. StorySpace deriva da precedenti lavori di Bernstein, quali HyperGate (un sistema di creazione di ipertesti per il Macintosh, antecedente a HyperCard) e Link Apprentice (uno strumento di ricerca per la creazione di ipertesti fra documenti preesistenti). StorySpace, di cui esiste sia la versione Macintosh che quella Windows, è utilizzato sia per creare ipertesti autonomi che per esportarli su web.
    StorySpace è basato su un editor a outline (albero gerarchico), anche se in realtà i paragrafi vengono visualizzati in riquadri che possono essere liberamente disposti e collegati graficamente.
  • Hyper-G – Sviluppato fin dall’inizio degli anni ’90 all’Institut für Informationsverarbeitung und Computerunterstützte Neue Medien (IICM) al Politecnico di Graz in Austria.
    Hyper-G è talvolta visto come un possibile futuro rivale del web, in quanto è dotato in modo nativo di funzioni che nel web sono disponibili solo tramite strumenti e protocolli esterni: permette la ricerca full-text, l’inserimento di collegamenti all’interno di immagini e filmati, ha una visualizzazione tridimensionale, ed infine supporta automaticamente interfacce utente multilingua.

La critica di Ted Nelson
Per gran parte delle persone, il WorldWideWeb è oggi una fedele implementazione della visione del memex ipertestuale di Vannevar Bush. Per molti, ma non per tutti: Ted Nelson, come abbiamo già visto, non si accontenta e denuncia:

L’HTML è proprio quello che volevo evitare con Xanadu: collegamenti sempre interrotti, collegamenti unidirezionali, citazioni di cui non puoi seguire l’origine, nessuna gestione delle versioni, nessuna gestione dei diritti.

e ancora:

Il Web non è ipertesto, sono directory decorate !
Cosa abbiamo è la vacua vittoria dei tipografi sugli autori, e la forma più banale di ipertesto che avremmo potuto immaginarci.
L’originale progetto di ipertesto, Xanadu, è sempre stato concentrato su strutture pure di documenti in cui autori e lettori non devono pensare a strutture di files e directory gerarchiche. Il progetto Xanadu ha sempre cercato di implementare una struttura pura di collegamenti e di facilitare il riutilizzo dei contenuti in qualsiasi modo, permettendo agli autori di concentrarsi su ciò che conta.

C’è un’alternativa.
I markup (59) non devono essere inseriti all’interno del testo. Le gerarchie e i file non devono essere parte della struttura mentale dei documenti. I collegamenti devono andare nelle due direzioni. Tutti questi errori fondamentali del Web devono essere riparati.

 

Bibliografia

  • [Akscyn 1987] Akscyn, Robert, Donald McCracken e Elise Yoder: “KMS: A Distributed Hypermedia System for Managing Knowledge In Organizations” ”, Proceedings of the ACM Conference on Hypertext, November 1987
  • [Andreessen 1993] Andreessen, Marc: NCSA Mosaic Technical Summary, National Center for Supercomputing Applications, Champaign, Ill., February 20, 1993
  • [Bardini 2002] Bardini, Thierry e Michael Friedewald: “Chronicle of the Death of a Laboratory: Douglas Engelbart and the Failure of the Knowledge Workshop” in History of Technology, Vol. 23, 2002
  • [Berners-Lee 1989] Berners-Lee, Tim: “Information Management: A Proposal”, CERN Internal Memo, Geneve, 1989, disponibile on line su http://www.w3.org/History/1989/proposal.html
  • [Berners-Lee 1990] Berners-Lee, Tim e Robert Cailliau: “WorldWideWeb: Proposal for a HyperText Project”, CERN Internal Memo, Geneve, 1990, disponibile on line su http://www.w3.org/Proposal.html
  • [Berners-Lee 1993] Berners-Lee, Tim: “The WorldWideWeb browser”, CERN Internal Memo, Geneve, 1993, disponibile on line su http://www.w3.org/People/Berners-Lee/WorldWideWeb.html
  • [Berners-Lee 1999] Berners-Lee, Tim: Weaving the Web, HarperCollins, New York, 1999
  • [Brown 1987] Brown, Peter J.: “Turning Ideas into Products: The Guide System”, Proceedings of the ACM Conference on Hypertext, November 1987
  • [Buckland 1992] Buckland, Michael K.: “Emanuel Goldberg, electronic document retrieval, and Vannevar Bush's Memex”, Journal of the American Society for Information Science Vol. 43, No. 4, May 1992
  • [Buckland 1995] Buckland, Michael K.: “Zeiss Ikon’s ‘Statistical Machine’”, Zeiss Historica Journal, Vol. 17, No. 1, Spring 1995
  • [Bush 1945] Bush, Vannevar: “As We May Think”, Atlantic Monthly, No. 176, July 1945
  • [Camillo 1550] Camillo Delminio, Giulio: L’Idea del Theatro, Domenichi e Torrentino, Firenze, 1550
  • [Delisle 1987] Delisle, Norman e Mayer Schwartz: “Neptune: a Hypertext System for CAD Applications”, Proceedings of the ACM Conference on Hypertext, November 1987
  • [Eco 1993] Eco, Umberto: La ricerca della lingua perfetta nella cultura europea, cap. 12, Laterza, Bari, 1993
  • [Gillies 2000] Gillies, James e Robert Cailliau: How the Web was Born, Oxford University Press, Oxford, 2000
  • [Goldberg 1931] Goldberg, Emanuel: “Das Registrierproblem in der Photographie”, Bericht ueber den VIII. internationalen Kongress fuer wissenschaftliche und angewandte Photographie, Dresden, 1931
  • [Halasz 1987] Halasz, Frank G.: “Reflection on NoteCards: Seven Issues for the Next Generation of Hypermedia Systems”, Proceedings of the ACM Conference on Hypertext, November 1987
  • [Koved 1986] Koved, Larry e Ben Schneiderman: “Embedded Menus: Selecting Items in Context”, Communications of the ACM, Vol. 24, No. 9, April 1986
  • [Meyrowitz 1982] Meyrowitz, Norman e Andries Van Dam: “Interactive Editing Systems: Part I” e “Part II”, Computing Surveys, Vol. 14, No. 3, September 1982
  • [Mohl, 1981] Mohl, Robert: Cognitive Space in the Interactive Movie Map: An Investigation of Spatial Learning in Virtual Environments, Ph.D. dissertation, Education and Media Technology, M.I.T., Boston, Mass., 1981
  • [Nelson 1965] Nelson,Theodore H.: “A File Structure for The Complex, The Changing, and the Indeterminate”, Proceeding of the ACM 20th National Conference, New York, 1965
  • [Nelson 1967] Nelson,Theodore H.: “Getting it out of our system”, in Information retrieval: A critical review, G. Schecter, ed., Thompson Book Co., Washington, D.C., 1967
  • [Nelson 1974] Nelson,Theodore H.: Computer lib/Dream Machines, Hugo's Book Service, Chicago, Ill., 1974.
  • [Nelson 1981] Nelson,Theodore H.: Literary machines, T. H. Nelson, Swarthmore, Pa., 1981
  • [Nelson 1999] Nelson,Theodore H.: “Xanalogical Structure, Needed Now More than Ever: Parallel Documents, Deep Links to Content, Deep Versioning, and Deep Re-Use”, ACM Computing Surveys, Vol. 31, No. 4es, December 1999
  • [Nelson 2004] “I Don’t Buy In”, on line su http://ted.hyperland.com/buyin.txt
  • [Otlet 1935] Otlet, Paul: Monde, Essai d’Universalisme: Connaissances du Monde, Sentiments du Monde, Action organisée et Plan du Monde, D. Van Keerberghen, Bruxelles, 1935
  • [Rayward 1991] Rayward, W. Boyd: “The Case of Paul Otlet, Pioneer of Information Science, Internationalist, Visionary: Reflections on Biography”, Journal of Librarianship and Information Science, No. 23, September 1991
  • [Rayward 1994] Rayward, W. Boyd: “Visions of Xanadu: Paul Otlet (1864-1944) and Hypertext”, Journal of the American Society for information Science, No. 45, 1994
  • [Schneiderman 1987] Schneiderman, Ben: “User Interface Design for the Hyperties Electronic Encyclopedia”, Proceedings of the ACM Conference on Hypertext, November 1987
  • [Schneiderman 1989] Shneiderman, Ben e Greg Kearsley: Hypertext Hands-On! An Introduction to a New Way of Organizing and Accessing Information, Addison-Wesley, Reading, MA., 1989
  • [Schneiderman 1998] Schneiderman, Ben: Designing the User Interface: Strategies for Effective Human Computer Interaction, Third Edition, 1998
  • [Shultz 1986] Shultz, Jan R.: “A History of the PROMIS Technology: an Effective Human Interface”, Proceedings of the ACM Conference on The history of personal workstations, 1986
  • [Smith 1987] Smith, John B., Stephen F. Weiss e Gordon J. Ferguson: “A Hypertext Writing Environment and its Cognitive Basis”, Proceedings of the ACM Conference on Hypertext, November 1987
  • [Spence 1983] Spence, Jonathan D.: The Memory Palace of Matteo Ricci, Viking Penguin Inc., New York, 1984
  • [Ramelli 1588] Ramelli, Agostino: Le Diverse et Artificiose Machine del capitano Agostino Ramelli dal Ponte della Tresia Ingegniero del Christianissimo Re di Francia et di pollonia, Parigi, 1588
  • [VanDam 1971] Van Dam, Andries e David E. Rice: “On-Line Text Editing: A Survey”, ACM Computing Surveys, VoI. 3, No. 3, September 1971
  • [Yates 1966] Yates, Frances A.: The Art of Memory, University of Chicago Press, Chicago, 1966
  • [Walker 1987] Walker, Janet H.: “Document Examiner: Delivery Interface for Hypertext Documents”, Proceedings of the ACM Conference on Hypertext, November 1987
  • [Walker 1994] Walker, John: The AutoDesk File, Version 4.0, 1994, disponibile on line su http://www.fourmilab.ch/autofile
  • [Wilkins 1668] Wilkins, John: Essay toward a real character, and a philosophical language, London, 1668

    [1] Giulio Camillo Delminio, letterato e filosofo, nacque a Portogruaro attorno al 1484 e, dopo una vita errabonda che attraversò alcune fra le maggiori corti europee (come quella di Francesco I re di Francia, e quella di Alfonso d’Avalos, governatore di Milano), morì a Milano nel 1544. (up)

    [2] Una più estesa e precedente versione dell’Idea è il Theatro della sapientia, mai pubblicata ed esistente solo in manoscritto, che completa e dettaglia il teatro di Camillo. (up)

    [3] Il gesuita Matteo Ricci, nato a Macerata nel 1552, nel 1583 andò missionario in Cina dove fondò la missione cattolica, dove acquisì grande prestigio grazie alla sua profonda cultura, alla sua grande capacità di assimilare quella cinese (compresa la sua difficile lingua e scrittura), ed infine all’abilità nel presentare il sapere occidentale secondo il modo di pensare cinese. Forse più famoso in Cina (dove è conosciuto come Li Madou) che in Italia, scrisse in cinese il Jifa (Trattato dell’arte mnemonica) in cui descrisse il suo Palazzo; morì a Pechino nel 1610. (up)

    [4] Agostino Ramelli, nato nel 1531, era un ingegnere militare, che durante la carriera servì GianGiacomo de Medici e il re di Francia Enrico III. Il suo libro Le diverse et artificiose machine del capitano Agostino Ramelli [Ramelli 1588], ricco di 195 superbe incisioni che illustravano le macchine che egli aveva immaginato e inventato, fu un classico dell’ingegneria rinascimentale ed ebbe una significativa influenza sullo sviluppo della meccanica nei decenni successivi. Ramelli inoltre teneva in gran conto la matematica, e nella prefazione al suo libro lodò l’eccellenza della matematica come necessaria anche a coloro che si dedicavano alle arti liberali. (up)

    [5] Nato nel 1614 a Fawsley, Northamptonshire, John Wilkins crebbe a Oxford dove poi conseguì il Bachelor of Arts. Dopo aver preso gli ordini religiosi, oltre alla carriera ecclesiastica Wilkins curò anche quella accademica (fu Warden del Wadham College di Oxford e poi Master del Trinity College a Cambridge). Grande oppositore della monarchia, si legò alla dittatura cromwelliana; dopo la restaurazione di Carlo II, Wilkins si dedicò agli studi scientifici, filosofici e linguistici (fu uno dei principali fondatori e il primo segretario della Royal Society), e alla carriera ecclesiastica, arrivando ad essere consacrato vescovo di Chester. Morì a Londra nel 1672. (up)

    [6] Ovviamente, quello di un cittadino inglese del XVII secolo. (up)

    [7] Paul Otlet (Bruxelles 1868-1944) fu uno dei maggiori esperti moderni di bibliografia. Nel 1895 fondò, insieme a Henri La Fontaine, l’International Institute of Bibliography (ora noto come International Federation for Information and Documentation) e nel 1910, la Union of International Associations. Egli fu anche un attivista del movimento della pace che portò, alla fine della I guerra mondiale, alla nascita della Lega delle Nazioni (e della Organizzazione per la Cooperazione Intellettuale, che diventò poi l’Unesco). (up)

    [8] Che raggiunse 11 milioni di voci all’inizio della guerra nel 1914, e 15 milioni verso la fine degli anni ’30. (up)

    [9] In un suo libro Otlet scrisse: “La Cité Mondial séra un livre colossal dont les edifices et leurs dispositions – et non seulement leur contenu – se liront a la manière dont les pierres des cathédrales se ‘lisaient’” [Otlet 1935]. Una frase che riporta alla mente l’utopica “Città del Sole” di Tommaso Campanella. (up)

    [10] Il database RBU era memorizzato su milioni di schede da 3x5” (quella classica usata dalle biblioteche per indicizzare i libri), ma Otlet aveva pensato anche di utilizzare microfilm e microfiche. (up)

    [11] Come Vannevar Bush dopo di lui (vedi oltre) anche Otlet pensò anche a tante altre innovazioni che rendessero la gestione dell’informazione più semplice ed efficiente: dalla copia rapida e multipla (con meccanismi fotografici e/o a raggi-x), la copiatrice personale e portatile (una specie di scanner), riconoscitori vocali che convertissero il parlato in testo, generatori vocali che convertissero il testo in parlato, ecc. [Rayward 1994]. (up)

    [12] Emanuel Goldberg nacque a Mosca nel 1881. Dopo aver compiuto gli studi in Germania, ottenne significativi risultati nei campi della fotochimica, fotografia, stampa a colori e televisione. Nel 1917 cominciò a lavorare come consulente per la Zeiss a Jena, dove divenne direttore della ricerca; nel 1926 divenne il direttore generale della Zeiss Ikon. Quando i nazisti andarono al potere nel 1933, Goldberg, di origine ebraica, fuggì prima a Parigi, e poi emigrò in Palestina. Morì a Tel-Aviv nel 1970. (up)

    [13] Vannevar Bush fu il consigliere scientifico del presidente degli Stati Uniti F.D. Roosevelt durante la seconda guerra mondiale, che lo nominò direttore dell’Office of Scientific Research and Development. Durante la guerra quest’ufficio coordinò le attività di più di 6000 scienziati americani impegnati in tutte le applicazioni militari della scienza. (up)

    [14] Forse una contrazione di memory extender, o forse memory index. (up)

    [15] L’articolo non è solo dedicato al memex, ma immagina anche tanti altri dispositivi innovativi di produttività individuale, che hanno poi visto la luce nei decenni seguenti: la thinking machine (il calcolatore personale), la telecamera personale, lo scanner, la fotografia “a secco” (la fotocopiatrice e la stampante laser), il voder (un dispositivo in grado di riconoscere le parole e tradurle in testo). (up)

    [16] L’articolo, pubblicato nella sua forma definitiva nel 1945, in effetti venne preparato diversi anni prima; una versione preliminare (“Mechanization and the Record”) venne pubblicata nel 1939 sulla rivista Fortune. (up)

    [17] Infatti nell’HTML i collegamenti (hyperlink) sono memorizzati come tags – ossia quelle informazioni metatestuali che non vengono visualizzate dal browser, ma utilizzate per formattare il testo stesso e fornire appunto le funzioni ipertestuali. (up)

    [18] Corporation del software famosa per il suo prodotto AutoCAD. Nel 1988 la AutoDesk comprò l’80% delle azioni della Xanadu Operating Company, e Ted Nelson andò a lavorare in AutoDesk come “distinguished fellow”. Nonostante l’aiuto economico e tecnologico di AutoDesk, nessun prototipo funzionante venne alla luce, e nel 1992 AutoDesk abbandonò Xanadu al suo destino. Vedi [Walker 1994], pagina 416 e segg. (up)

    [19] Tanto per dire, è fornito in codice sorgente, e richiede la compilazione con un compilatore SmallTalk modificato dagli sviluppatori. Vedi http://udanax.com/gold/download/index.html (up)

    [20] Andries Van Dam (vedi oltre) chiama quella di Engelbart al FJCC 1968 “la madre di tutte le demo”. Nelle parole di un altro commentatore, fu come “...un UFO che atterra sul prato della Casa Bianca”. Testo, grafica, e audio-video “live” di Engelbart in San Francisco, e di altri colleghi a Menlo Park (a circa 20km) vennero sovrapposti in diverse finestre di un display proiettato, ed essi lavorarono insieme mentre spiegavano che cosa stavano facendo. Vennero illustrati i protocolli usati per sincronizzare il lavoro di diversi utenti connessi al sistema [Meyrowitz 1981]. Questa dimostrazione mostrò come NLS fosse un precursore delle attuali videoconferenze e dei sistemi di lavoro di gruppo. (up)

    [21] Questo computer, su cui girava NLS, era prodotto dalla Scientific Data Systems (che poi venne acquistata dalla Xerox), ed era dotato di 65k parole di memoria a 24 bit, un tamburo per il sistema operativo da 4,5 megabyte e un disco per la memorizzazione dei dati da 96 megabyte. (up)

    [22] Esso venne poi sostituito con un DEC PDP-10 con sistema operativo TENEX, per uniformarsi con la situazione della maggior parte degli altri nodi di ARPAnet, e NLS venne trasportato su questo sistema. (up)

    [23] Questa crisi ebbe origine da vari motivi, non tanto legati al successo del progetto di ricerca, ma alle strane e intense interazioni tra la forte creatività tecnologica presente al laboratorio e gli sviluppo dei movimenti contro-culturali tipici della California fine anni ’60 (i movimenti anti Vietnam, per i diritti civili, di liberazione delle donne, ecc.). Gli effetti creativi e distruttivi di tali interazioni sono raccontati in [Bardini 2002]. (up)

    [24] Rete parecchio avanzata per l’epoca, che utilizzava satelliti per il collegamento fra i diversi continenti. (up)

    [25] Il Palo Alto Research Center (PARC) della Xerox fu per tutti gli anni ’70 il maggiore centro di irradiazione di innovazione del campo informatico. Il personal computer Xerox Alto implementò in pratica molte delle idee concepite all’ARC, e lasciò in eredità ai suoi successori (specialmente l’Apple Macintosh) la formalizzazione di tutte caratteristiche principali dei computer odierni (le interfacce grafiche multifinestra, le icone, l’uso del mouse, la rete Ethernet, ecc.) (up)

    [26] Van Dam stesso lo riconosce: “Ho avuto il privilegio di stare per una settimana nel laboratorio di Engelbart, e ho rubato molte grandi idee di NLS per FRESS”. (up)

    [27] “fress” è una parola di origine tedesco-yiddish che significa mangiare con molto entusiasmo. (up)

    [28] Time-sharing: come venivano chiamati i sistemi operativi multiutente negli anni ’60. Permettevano l’utilizzo di un costoso computer di tipo “mainframe” da parte di molti utenti, tramite terminali collegati al computer stesso. (up)

    [29] ZOG non era un acronimo, ma un nome che non significava nulla di particolare. (up)

    [30] Una macchina sperimentale multiprocessore, costruita a partire da un certo numero di Digital PDP-11. (up)

    [31] Schermo sensibile al contatto, che permette di sostituire il tocco di un dito ad altri mezzi di input come il mouse. (up)

    [32] Curiosamente, anche questo linguaggio di codifica venne chiamato HTML (HyperTIES Markup Language). (up)

    [33] Mentre l’implementazione per Macintosh venne fatta con HyperCard e quella per UNIX (su workstation Sun e Apollo) in KMS. (up)

    [34] A/UX fu la versione Apple di UNIX per il Macintosh, che al noto sistema operativo aggiungeva l’interfaccia grafica tipica del Mac. Questo sistema operativo non ebbe molto successo; è da notare però che alla fine degli anni ’90 Apple avrebbe poi utilizzato nuovamente UNIX come base per il suo nuovo sistema operativo Mac OS X. (up)

    [35] Notissimo sistema di sviluppo per creare sistemi multimediali ed ipermediali, con testo, grafica, animazioni, ecc. sia per siti Internet che “stand-alone”. (up)

    [36] La famosa “serie D” (Dolphin, Dandelion, Dandetiger, Dorado), derivate dallo Xerox Alto, che fornivano un ambiente di sviluppo per I.A. chiamato InterLISP. (up)

    [37] Un po’ come si fa oggi in certi strumenti per la creazione dei siti web come Microsoft FrontPage. Pare strano però che per il web ci siano voluti diversi anni prima che comparissero tali strumenti, che in altri ambienti ipertestuali esistevano già almeno dieci anni prima. (up)

    [38] Ciò che oggi – con orribile neologismo – viene chiamato “courseware”. (up)

    [39] Symbolics, Inc. era uno dei più famosi costruttori di “LISP-machines”, ossia workstation dedicate allo sviluppo per intelligenza artificiale. Nata nel 1980 come costola del famoso Laboratorio di Intelligenza Artificiale (AI-Lab) del MIT, ebbe grande successo nel campo delle workstation dedicate, ma con lo spegnersi dell’interesse verso l’I.A. verso la fine degli anni ’80, anche Symbolics morì. (up)

    [40] Le immagini mostrano il Symbolics Document Examiner in funzione su una scheda MacIvory III, una scheda di espansione per il Macintosh costruita da Symbolics, che portava su una piattaforma più economica come il Mac le potenzialità delle LISP-workstation di fascia alta della Symbolics. (up)

    [41] CAD: Computer Aided Design; CASE: Computer Aided Software Engineering. (up)

    [42] Atkinson fu il principale sviluppatore del toolkit grafico QuickDraw per l’Apple Lisa, su cui era fondata tutta l’interfaccia utente del Lisa prima, e del Macintosh poi. Inoltre, aveva scritto MacPaint, la prima e più accattivante applicazione grafica per il Macintosh. (up)

    [43] Bill Atkinson oggi afferma che questo fu una gravissima mancanza di lungimiranza da parte sua, causata certamente dal fatto che egli crebbe professionalmente alla Apple dove imperava una cultura “box-centrica” (al contrario di altre aziende, come la Sun o la Digital, “network-centriche”). Egli aggiunge che, probabilmente, se in HyperCard fosse stato possibile collegare via rete stacks residenti su macchine diverse, esso avrebbe anticipato il Web. (up)

    [44] La versione 10 del sistema operativo del Macintosh (detta anche Mac OS-X) è stata totalmente rifatta rispetto alle precedenti e basata su un kernel UNIX. (up)

    [45] ToolBook venne creato da Asymetrix, un’azienda fondata da Paul Allen, socio fondatore con Bill Gates di Microsoft. (up)

    [46] Ossia “Informati qui su qualsiasi cosa”, era il titolo di un famoso manuale domestico di grande successo nell’Inghilterra di epoca vittoriana, il cui compilatore prometteva: “Che Voi Desideriate Modellare in Cera un Fiore; Studiare le Regole dell’Etichetta; Servire una Salsa per Colazione o Cena; Pianificare un Pranzo per un Grande Numero di Persone o Uno Piccolo; Curare un Mal di Testa; Scrivere un Testamento; Sposarvi; Seppellire un Parente; Qualsiasi Cosa Desideriate Fare, Costruire o Averne Diletto, Purché il Vostro Desiderio abbia Relazione alle Necessità della Vita Domestica, io Spero che non Falliate in ‘Informarvi Qui’” (insomma, tutte quelle informazioni che, nel caso di necessità, oggi cerchiamo su Internet). (up)

    [47] La macchina progettata e costruita da Steve Jobs quando venne “buttato fuori” da Apple Computers. (up)

    [48] All’indirizzo http://nxoc01.cern.ch/hypertext/WWW/TheProject.html (up)

    [49] La storia dei primi passi del web è molto ben descritta in due libri dei due maggiori responsabili di essa, Weaving the Web di Tim Berners-Lee [Berners-Lee 1999], e How the Web Was Born di Robert Caillau [Gillies 2000]. (up)

    [50] Due primitivi sistemi di organizzazione gerarchica dell’informazione su Internet, con alcune funzioni simili all’ipertesto, ma decisamente inferiori a quelle del WWW. (up)

    [51] Ancora oggi, richiedendo le “Informazioni su…” in Internet Explorer 6.0, è chiaramente scritto: “Basato su NCSA Mosaic. NCSA Mosaic® è stato sviluppato dal National Center for Supercomputing Applications presso l'università dell'Illinois a Urbana-Champaign ed è distribuito in base ad un contratto di licenza della Spyglass, Inc.”. (up)

    [52] Apache è installato su circa due terzi dei server web Internet, rispetto a circa un terzo che usa invece il software Microsoft (Internet Information Server). (up)

    [53] Il primo nome della neonata azienda era stato Mosaic Communication Corporation, ma era stato cambiato in Netscape in seguito alle lamentele di Spyglass Inc. (vedi nota precedente) che deteneva i diritti commerciali sul marchio Mosaic. (up)

    [54] Initial Public Offering, chiamasi così la prima offerta di vendita di azioni sul mercato di una “startup company” (una azienda da poco creata), che di norma caratterizza il valore azionario della nuova società. (up)

    [55] Tipico esempio dell’artificiale gonfiatura della bolla “dot-com” di fine anni ’90. Valeva Netscape tutti quei soldi ? Da un punto di vista della finanza tradizionale, sicuramente no; ma in quegli anni migliaia di investitori correvano come mosche al miele su qualsiasi azienda che promettesse hi-tech. Nel 2001, sgonfiatasi la bolla, tutte quelle aziende (comprese Netscape) erano sparite, e quegli investitori si leccavano le ferite. (up)

    [56] In seguito vennero offerte versioni di Internet Explorer anche per Windows 3.x, per il Macintosh, e persino per UNIX. (up)

    [57] Basta dire che mentre il team che aveva sviluppato la prima versione di Internet Explorer team era composto da soli sei programmatori, per la versione 3.0, rilasciata nel 1996, il numero delle persone impegnate era cresciuto a 100, e nel 1999, per la versione 4.0, era arrivato a più di 1000. (up)

    [58] Yahoo dovrebbe essere un acronimo di Yet Another Hierarchical Officious Oracle (Ancora un Altro Oracolo Gerarchico Ufficioso) (up)

    [59] Un markup è una parola, inserita nel testo, che indica un determinata caratteristica del testo stesso (la sua formattazione, un collegamento, ecc.) (up)