Informatica

Il futuro della rete

 

 

Telecomunicaizoni

 

Telecomunicazioni sono sinonimo di trasmissione a distanza di informazioni di varia natura (parole, suoni, immagini o dati), sotto forma di segnali o di impulsi elettrici. Nel corso del XX secolo il telefono è diventato la forma di telecomunicazione più comune, ma recentemente la telefonia vocale è stata integrata da una vasta gamma di servizi computerizzati disponibili attraverso le reti di comunicazione, prima fra tutte la rete globale Internet.

Oggi si da per scontato che, premendo alcuni tasti, sia possibile stabilire in pochi secondi un collegamento vocale con persone all'altro capo del globo. Tuttavia la tecnologia che ha portato alla rete telefonica, una delle più complesse creazioni del XX secolo, risale solo a circa un secolo fa. Dall'invenzione del telefono, avvenuta per merito dell'italiano Antonio Meucci e, indipendentemente, dello statunitense Alexander Graham Bell, vi sono state moltissime innovazioni che hanno condotto all'attuale assetto delle telecomunicazioni. Le tappe principali di questo percorso sono state le seguenti.

Nel 1892 Almon Strowger mise a punto un sistema di commutazione automatica capace di stabilire una comunicazione telefonica senza l'intervento di un operatore, ponendo le basi per l'attuale rete telefonica.

Nel 1901 Guglielmo Marconi dimostrò che le onde radio potevano essere usate per trasmettere informazioni a lunga distanza, inviando un messaggio oltre l'oceano Atlantico.

 

Nel 1948 William Shockley, John Bardeen e Walter Brattain inventarono il transistor, dando un grande impulso alla rivoluzione elettronica.

Nel 1966 Charles Kao formulò la teoria secondo la quale le informazioni potevano essere trasmesse usando la tecnologia delle fibre ottiche, che oggi vengono impiegate per trasferire enormi quantità di dati ad altissima velocità e che costituiscono il nerbo della rete mondiale di telecomunicazioni.

Oggi, attraverso le reti telefoniche, è possibile effettuare comunicazioni di varia natura: grazie ad appositi convertitori (modem) esse consentono infatti il collegamento tra computer e la trasmissione di dati digitali.

 

Pur essendo molto complesso, il sistema delle telecomunicazioni mondiali è composto da un numero limitato di elementi fondamentali:

1)   le apparecchiature dell'utente, vale a dire telefoni, computer e tutti gli altri mezzi di accesso alla rete;

2)   il supporto per la trasmissione, ovvero le linee lungo le quali avviene il trasferimento dei dati;

3)   gli strumenti per la commutazione, cioè la gerarchia dei commutatori locali, interurbani e internazionali che permettono a ogni utente della rete di collegarsi a qualsiasi altro utente. Ciascuno di questi elementi consiste in una combinazione di hardware e di software.

Le reti sono connessioni tra gruppi di computer e strumenti ausiliari che permettono il trasferimento di informazioni per via elettronica. Per esempio per quanto riguarda una linea usata negli uffici, i singoli computer, detti work station o stazioni di lavoro, comunicano fra loro per mezzo di cavi e linee telefoniche. I server sono computer simili alle stazioni di lavoro, che però hanno la funzione di gestire l'accesso a parti della rete o a qualunque altra risorsa connessa (stampanti). Il modem permette di trasferire informazioni attraverso le linee telefoniche, mediante la conversione dei segnali digitali in segnali analogici e viceversa, rendendo così possibile la comunicazione a chilometri e chilometri di distanza.

 

I primi sistemi di telecomunicazione erano di tipo analogico: le informazioni venivano trasmesse sotto forma di segnali variabili in modo continuo. Lungo le attuali reti di comunicazione corrono invece segnali digitali, vale a dire segnali che possono assumere due soli valori (si e no), rappresentabili con le cifre binarie 1 e 0. Nonostante i segnali digitali possano essere convogliati anche attraverso collegamenti analogici, l'efficienza di trasmissione è migliore lungo le più recenti linee digitali, che sono capaci di condurre qualunque tipo di segnale: audio, video, testi e immagini. La capacità di queste linee, realizzate in base ai criteri tecnologici più avanzati, è aumentata molto rapidamente negli ultimi anni: da una velocità di trasmissione pari a 64 kbps (chilobit per secondo), tipica della metà degli anni Ottanta, si è passati, in poco più di un decennio, a oltre 150 Mbps (megabit per secondo), vale a dire a una velocità quasi 10.000 volte maggiore. Oggi, il record assoluto di trasmissione dati è di 2,8 Gbps (gigabit per secondo): è stato ottenuto nel corso di una sperimentazione, per mezzo di una tecnica ideata dai ricercatori dell’Università dell’Illinois a Chicago, denominata PDS (Photonic Data Service).

 

La comunicazione tra due nodi di una rete può avvenire sostanzialmente in base a due sistemi: la commutazione di circuito e la commutazione di pacchetto. Il tratto distintivo della commutazione di circuito è che tra trasmettitore e ricevitore viene stabilito un collegamento "end-to-end" (da un capo all'altro), tenuto aperto per tutta la durata della comunicazione. La rete telefonica pubblica è un tipico esempio di rete a commutazione di circuito: durante una telefonata, la linea tra le due parti rimane occupata e non può essere condivisa da terzi.

Lo scambio di dati tra computer, o tra computer e terminali, invece, avviene in modo diverso: i dati non vengono trasmessi a flusso continuo, ma suddivisi in unità di informazione discrete, dette pacchetti. Questo consente la trasmissione tra terminali senza bisogno di un collegamento "end-to-end": i dati corrono lungo la rete "link-by-link" (connessione per connessione), ovvero, in corrispondenza di ogni nodo vengono temporaneamente memorizzati dal relativo commutatore e messi in attesa a seconda del traffico presente lungo la linea, per essere infine trasmessi al link di destinazione. Le decisioni di instradamento sono basate sulle informazioni contenute in una "intestazione" (header) posta all'inizio di ogni blocco di dati. Il termine "pacchetto" designa appunto l'insieme dell'intestazione e del blocco dati.

 

In una rete a commutazione di pacchetto, i blocchi di dati concorrono per aggiudicarsi le risorse della rete (memoria buffer, potenza di elaborazione, capacità di trasmissione). Nella maggior parte dei casi, un commutatore accetta un pacchetto da un terminale ignorando quali risorse della rete siano in realtà disponibili: pertanto esiste sempre la possibilità che una rete accetti più traffico di quello che può effettivamente sopportare. Sono quindi necessari controlli per garantire che tali congestioni non si verifichino troppo spesso e che la rete possa tornare senza problemi alla normalità ogni volta che ciò accade. I pacchetti si accodano per la trasmissione presso ogni commutatore, perciò può essere accumulato un ritardo variabile, che dipende dal traffico incontrato lungo il percorso.

In una rete a commutazione di circuito, la competizione per le risorse si presenta invece sotto forma di bloccaggio, il che significa che una chiamata in corso può impedire l'accesso alla rete. Poiché il circuito può essere occupato esclusivamente da un utente alla volta, per tutta la durata della chiamata di un utente nessun altro può accedervi. Le reti a commutazione di circuito tradizionali sono studiate per raggiungere un equilibrio tra la quantità di apparecchiature messe a disposizione e una ragionevole possibilità di accesso alla rete. Il ritardo dei collegamenti solitamente è ridotto e sempre costante, e altri utenti non possono interferire con la qualità della comunicazione.

 

È evidente dal recente sviluppo delle trasmissioni dati che la rete telefonica è tutt'altro che superata: proprio grazie a questa è stato possibile lo straordinario sviluppo di Internet, un gruppo allargato di reti di comunicazione su scala globale, che collega decine di milioni di persone in tutto il mondo. Originariamente concepita dal dipartimento della Difesa statunitense come efficiente sistema di controllo decentrato, Internet permette oggi a un'estesa comunità di utenti di accedere a dati condivisi, di scambiare file e di comunicare spedendo e ricevendo messaggi di posta elettronica. La comunicazione tra sistemi di elaborazione diversi è possibile grazie all'adozione di una famiglia di appositi protocolli chiamati TCP/IP. Il World Wide Web (WWW) è un'applicazione di Internet che mette a disposizione dell'utente una serie di risorse, dati e informazioni fisicamente immagazzinati in qualunque computer della Rete. Lo strumento software che consente la navigazione tra i siti e la lettura delle pagine Web è un programma detto browser. I principali browser oggi in commercio sono Netscape Navigator e Microsoft Internet Explorer.

Struttura di Internet

Un utente di Internet può collegare il proprio personal computer alla rete attraverso le linee telefoniche, mediante un modem, oppure attraverso l'accesso diretto a una linea dedicata. Più computer connessi in un'area geografica limitata formano una LAN (Local Area Network, rete locale); il collegamento tra più LAN, realizzato per mezzo di dispositivi detti bridge o router, a seconda che colleghino reti omogenee o eterogenee, dà luogo alle WAN (Wide Area Network, reti estese). Gli hub sono i nodi da cui si diramano le linee che raggiungono gli utenti.

 

 

Le reti locali wireless: Wi-Fi e 802.11

Dall’articolo Marco Mezzalama, Professore ordinario di Sistemi di Elaborazione e Prorettore del Politecnico di Torino, pubblicato su Polymath.

 

“Qualcuno sostiene che tra un anno o poco più non ci saranno più fili nell’informatica: niente cavi di collegamento dati, niente più matasse ingombranti intorno al pc! Rimarrà solo il cavo dell’alimentazione elettrica, anche se la impressionante crescita prestazionale delle batterie fa ipotizzare anche da questo punto di vista un mondo sempre più wireless (“senza fili”).
Limitandoci tuttavia alla sola connettibilità dati, oggi si sta consolidando la tecnologia WLAN, Wireless Local Area Network, cioè rete locale, o LAN, senza fili, come mezzo di accesso a reti più ampie, siano esse aziendali o globali. Questa tecnologia si affianca ad altre tecnologie wireless per garantire il requisito della “mobilità totale”, considerato il nuovo imperativo tecnologico e di business dalla stragrande maggioranza degli operatori di telecomunicazioni e di informatica.
La collegabilità di un sistema mobile, tipicamente un pc portatile, ad internet, o comunque ad una rete aziendale, si può oggi ottenere sostanzialmente tramite due approcci: mediante l’uso di un cellulare di seconda o terza generazione oppure tramite una rete locale wireless connessa a sua volta ad una più grande rete locale fissa, che a sua volta sia connessa ad internet in modo tradizionale.
L’uso della rete cellulare per collegarsi a internet è la soluzione wireless oggi più diffusa, anche se per poco, vista la diffusione delle reti WLAN. Tramite GSM, o la sua evoluzione GPRS, per aumentare la velocità di trasmissione, o tramite UMTS, soluzione questa non ancora diffusa e tecnicamente consolidata, è possibile collegare un pc o un PDA alla rete internet o a intranet aziendali da qualsiasi sito coperto dalla rete cellulare (fig. 1).

Figura 1

Il limite di questa soluzione risiede nella limitata banda trasmissiva, che nel caso del GPRS permette velocità dell’ordine dei 100Kbps, pertanto scarsamente predisposta per dati multimediali. Si consideri che la velocità delle reti fisse ADSL è circa 10 volte maggiore! Il vantaggio è la garanzia di una connettività globale, senza limiti geografici: da qualunque posto, purché coperto dalla rete cellulare, a qualsiasi località del globo. L’accesso a internet avviene in sostanza attraverso il sistema di telecomunicazioni (tlc) delle reti cellulari. Il concetto che sta alla base della soluzione WLAN è leggermente diverso: si realizza una rete locale basata su tecnologia radio in grado di offrire una copertura ad alta densità di traffico con estensione tipica variabile da qualche decina di metri al chilometro. Tale rete può essere collegata mediante un apparato concentratore, detto access point, ad una tradizionale rete locale aziendale o, mediante una base station, ad un sistema di connettività geografica gestito da un gestore di tlc, che ne garantirà il collegamento a internet.

Figura 2

Nel primo caso (fig. 2) si garantisce mobilità all’interno dell’azienda con il vantaggio dell’eliminazione di connessioni fisse: si pensi ad esempio ad una sala riunioni, una sala studio universitaria o un biblioteca. Nel secondo caso (fig. 3) si realizzano aree di connettività in zone pubbliche, quali stazioni aeroporti, treni, hotel, aree civiche. Queste aree pubbliche coperte da WLAN vengono di norma identificate con il termine di “bolla telematica” o hot spot. Ogni hot spot costituisce una sorta di area in cui sarà garantita dal gestore una connettività ad elevata velocità, vedremo dell’ordine dei Mbps, ben superiore a quella oggi ottenibile mediante connessione a rete cellulare. Alla data attuale ci sono nel mondo circa 100.000 hot spot pubblici con un trend di crescita che dovrebbe portare al raddoppio, nel giro di poco più di un anno.

Figura 3

Tra le diverse tecnologie WLAN, si sta affermando in tutto il mondo quella basata sullo standard IEEE 802.11, che definisce le modalità operative ai primi due livelli del modello OSI. Tale standard viene anche comunemente definito Wi-Fi, da wireless fidelity. Esso deriva da Wi-Fi Alliance, un raggruppamento di aziende che garantiscono attraverso il marchio Wi-Fi la compatibilità degli apparati allo standard 802.11. Per la verità 802.11 è il nome impiegato per designare una famiglia di standard per realizzare WLAN. I principali di questi sono:

  • IEEE 802.11b. Opera a 2,4GHz nella banda ISM, banda impiegata per utilizzazioni industriali, scientifiche e mediche con area di impiego fino ad alcune centinaia di metri. La velocità di trasmissione lorda, comprensiva cioè di tutti i bit di controllo, è pari a 11 Mbps. Usa in prevalenza la tecnica di modulazione DSSS, che minimizza le interferenze. Oggi è lo standard più diffuso, sia in Europa che negli USA, con un’ampia gamma di dispositivi reperibili a basso costo. Ad esempio il costo di una scheda per pc del tipo PCMCIA è circa di 50 €.

  • IEEE 802.11a. Opera a 5GHz in una banda più ampia di quella dello 802.11b e permette di raggiungere una velocità di trasmissione lorda pari a 54 Mbps. Usa in prevalenza la tecnica di modulazione OFDM. Attualmente è assai poco diffusa, se non negli USA, e gli apparati non sono spesso compatibili con 802.11b, limitando in tal modo la sua diffusione, nonostante una velocità di trasmissione assai maggiore.

  • IEEE 802.11g. E’ il nuovo standard che estende le caratteristiche di trasmissione dello standard 802.11b, portando la velocità di trasmissione a 54 Mbps, pur operando a 2,4GHz e garantendo compatibilità con gli apparati di questo standard.

Vediamo ora una classica configurazione di rete Wi-Fi, o 802.11b. Due sono i componenti fondamentali: un’unità per l’interconnessione alla rete, detta NIC, e un apparato di accesso, detto AP, access point. Quest’ultimo è normalmente connesso alla dorsale di rete locale Ethernet e funge da concentratore e gestore dei collegamenti wireless con i singoli apparati. Esiste un AP per ogni sottorete wireless che svolge un ruolo simile ad un hub (letteralmente “perno”, con riferimento al centro di una ruota in cui confluiscono tutti i raggi. In pratica si tratta di un dispositivo che crea una connessione tra tutte le workstation ad esso collegate) nelle tradizionali reti fisse. Ad esso si rivolgono tutti gli apparati collegati alla rete senza fili. Ognuno di questi apparati dispone di un NIC. Nel caso di pc portatili questo è di norma costituito da una scheda PCMCIA, anche se è previsto che nel 2007 circa il 70% dei portatili avrà integrate le funzionalità Wi-Fi. Il dispositivo NIC opera da interfaccia tra il dispositivo mobile e la rete a radiofrequenza svolgendo le funzioni di accesso alla rete, organizzazione dei dati in pacchetti e di modulazione/demodulazione delle sequenze di bit.
Prima di concludere questa breve nota sulle reti wireless, pare opportuno evidenziare un problema che assume significativa rilevanza in questo contesto. Si tratta della sicurezza nelle trasmissioni. Una rete wireless a radiofrequenza è infatti per sua intrinseca struttura una rete aperta: intercettare una comunicazione è relativamente facile, mediante un semplice ricevitore opportunamente sintonizzato. Ne deriva che devono essere messe in atto strategie per evitare indesiderate intercettazioni, e tecniche per l’identificazione e l’autenticazione degli utenti. In generale ci si orienta verso la cifratura delle trasmissioni mediante opportune chiavi crittografiche.
L’autenticazione degli utenti si può realizzare con varie tecniche, non ultima l’impiego della firma digitale. Resta il fatto che oggi il problema della sicurezza delle reti wireless è uno dei nodi non ancora totalmente risolti su cui studiosi e organismi internazionali stanno alacremente lavorando.”

 

Wireless: la nuova frontiera delle telecomunicazioni

 

Nicholas Negroponte spiega perché Wi-Fi, “ giglio di stagno e rane” (lily pads and frogs), trasformerà il futuro della telecomunicazione.

Wired Magazine, ottobre 2002

 

“TUTTO CIO’ che oggi si conosce sulla telecomunicazione sta per cambiare. Le società di large wires e di wireless telephone (telefoni senza filo) saranno sostituite da micro – operatori, milioni dei quali possono essere inseriti in un tessuto globale di connessione a larga banda.
Come avverrà tutto ciò? Ecco la storia.
Negli ultimi 30 anni le telecomunicazioni hanno avuto tre cambiamenti importanti, ognuno dei quali ha segnato un’era. Il primo negli anni ‘70 è stata la comunicazione digitale. Il secondo è stata la comunicazione packet switching. Il terzo la comunicazione wireless. Ognuno di essi ha dato origine a innovazioni fondamentali. Il primo, tra altre cose, ha lanciato il multimediale. Il secondo la connessione continua, always on. Il terzo, la mobilità funzionale.
Insieme alla liberalizzazione mondiale, questi cambiamenti generazionali hanno dato al consumatore maggiori servizi ad un costo più basso. Questo è particolarmente evidente nella telefonia cellulare, che ha avuto un impatto culturale enorme nel mondo intero. (L’effetto è stato meno visibile negli Stati Uniti ma questa è un’altra storia.)

 

Voice-centric 3G troppo piccolo, troppo presto

 

Dopo questi importantissimi passi in avanti, oggi i wireless providers stanno per fare un piccolo cambiamento quasi irrilevante che va verso la cosiddetta terza generazione di wireless. Il 3G è un cambiamento troppo piccolo, fatto troppo presto e non ha le caratteristiche di un cambiamento generazionale. E’ ancora centrato sulla voce, voice-centric, in un momento in cui l’utilizzo dei dati e’ sempre maggiore una conversione che il 3G non riesce a gestire pienamente in nessun modo.


I gigli acquatici: la vera generazione futura

 

L’industria del computer sta seguendo, per caso, per le reti locali, un’iniziativa parallela e apparentemente senza alcun legame con le wireless local area networks chiamata 802.11, nata per sostituire i cavi coassiali ed evitare così di fare buchi e tendere fili.
Cinque anni fa, installai una linea LAN wireless nella mia casa di Boston. Allora costò circa $ 2.000 per la stazione di base e $ 500 per ogni dispositivo che volevo connettere. Oggi costa rispettivamente $ 120 e $50, e il prezzo sta scendendo ancora, con il risultato che questo tipo di collegamento sta crescendo velocemente, con una stima prudente di 15 milioni di connessioni in USA.

Illustration by lostinspace

 

Ma il WiFi non si ferma alle mura di casa

 

Il sistema 802.11 – disponibile attualmente in molti modelli tra cui 802.11b, conosciuto comunemente come Wi-Fi – non si ferma alle mura di casa.
A seconda del materiale interposto utilizzato una base Wi-Fi può trasmettere a più di 1.000 piedi di distanza. Poiché io abito in una zona ad alta intensità abitativa, il mio sistema perviene forse a 100 vicini. Non so quanti lo utilizzino (gratuitamente) – francamente non mi interessa, io pago una quota fissa e ne divido volentieri l’utilizzo.
Lungo la strada, oltre alla zona in cui si può ricevere il mio sistema, un altro vicino ha fatto il collegamento al Wi-Fi, e un altro e un altro ancora. Pensate a uno stagno con un giglio d’acqua, poi due, poi quattro, poi molti che si sovrappongono, con i loro steli collegati ad Internet (L’analogia del giglio e’ di Alessandro Ovi, consigliere tecnico della Commissione Europea – presidente Romano Prodi).
Guardiamo i numeri: 3G, nelle proiezioni più ottimistiche tra due anni, fornirà dati alla velocità di 1 megabite per secondo. Oggi Wi-Fi normalmente fornisce 11 megabites, ma l’offerta raggiunge i 54 megabites. Quale standard pensate che verrà adottato?

 

Le rane: saltellando attraverso la rete a maglie (mesh network)

 

In futuro, ogni sistema Wi-Fi funzionerà anche come un piccolo router che ritrasmetterà al suo vicino più prossimo. I messaggi possono saltare, pari – pari, da giglio a giglio come le rane – non sono necessari steli. Si ha un sistema di telecomunicazione a banda larga, broadband, costruito dalla gente per la gente. I Carriers sono coscienti di questa espansione, ma non le danno il giusto valore perché non ritengono che ci sia una copertura sufficiente. Si sbagliano.

 

Un sistema a banda larga costruito dalla gente per la gente

 

Sono tre le cose che rendono interessante questa struttura pari – pari. Per prima, la sua manifestazione e crescita sono virali. La telecomunicazione virale è un nuovissimo fenomeno di struttura espansiva, dove ognuno costruisce la propria e l’insieme è formato da una rete di liberi accordi. In un mercato delle telecomunicazioni dalla struttura piramidale e un difficile investimento di capitali, questa caratteristica costituisce un’ulteriore attrattiva. Secondo, aumentando il numero di nodi le sue prestazioni migliorano. Solitamente l’aggiunta di ricevitori fa aumentare le interferenze e la qualità del servizio diminuisce, in questa tipologia maggiore è il numero di nodi, migliore è il servizio.
Terzo, la preoccupazione per le radiazioni elettromagnetiche. L’Europa, in particolare, è in allarme a causa delle conseguenze ancora sconosciute dello smog elettromagnetico sulla salute. Negli Stati Uniti vi sono regolarmente reclami a causa di ricevitori che produrrebbero il cancro al cervello. Qualunque sia la realtà, la topologia del multi-hop network necessita di meno energia perché i segnali coprono piccole distanze. Si può pensare che minore energia significhi minore rischio per la salute.

 

Lo stagno: far girare l’onda della telecomunicazione

 

Lo spettro è attualmente gestito come un bene spartito, con attenzione, dal governo. Recenti licitazioni ad alti costi hanno stabilito prezzi enormi e fuori della realtà per queste proprietà. Ancora più importante di questo comunque, secondo il vecchio modo di pensare, è di dare dei limiti, per permettere ad ognuno di operare senza interferenze e con pieni poteri.
Ora stanno emergendo nuovi modi di gestire lo stagno, perché si può porre sempre più intelligenza nei gigli d’acqua e rane. Lo spettro del wireless può essere utilizzato in modo molto più efficiente, utilizzando meno energia e a un prezzo inferiore. Sono di particolare interesse le aree considerate ora di uso libero per tutti e per ogni cosa, senza bisogno di una licenza. Queste zone di banda larga, relativamente piccole e sparse attraverso frequenze differenti, sono considerate poco più che scarti. Questo spettro senza licenza è utilizzato dai telefoni cordless, dai telecomandi per i cancelli dei garages, dai forni a microonde, e da ogni tipo di altra innocente e imprevedibile applicazione.
Ciò che è emerso con il Wi-Fi e con i recenti esperimenti con lo spettro di propagazione, spread spectrum e con CDMA, è che è possibile una nuova ripartizione dello spettro. E’ possibile considerare parti di esso (forse tutto) come una grande zona comune, anziché suddivisa in lotti. I confini definiti sarebbero sostituiti da adeguate modalità di utilizzo. Per impedire il fallimento dell’utilizzazione in comune, come per evitarne l’abuso, si potrebbero applicare per esempio delle limitazioni di energia. Bene, è come accordarsi di non urlare “al fuoco!” in un teatro affollato.
Una nuova suddivisione dello spettro non sarà possibile in brevissimo tempo. Riorganizzare zone elettromagnetiche occupate è difficile come abbattere parte di una città per un parco o un centro pubblico. I nuovi modi di agire avranno un effetto più immediato se si guarda a parti sempre più alte dello spettro e le si utilizza per distanze molto brevi.

 

 

Sfruttare la natura virale della parte libera dello spettro

 

Il nuovo pensiero toccherà anche zone dove la penetrazione wireless è molto bassa – tra i veri gigli d’acqua e le rane, ironicamente; in alcune delle parti più rurali e remote del nostro mondo. Uno sporco piccolo segreto sull’802.11b è che con antenne direzionali adeguate si può avere una copertura di più di 20Km. Immaginate di raggiungere luoghi che non hanno un valore commerciale tale da giustificare infrastrutture classiche. In questi casi la natura virale delle telecomunicazioni senza licenza diventa un punto di forza nello sviluppo umano, che trasformerebbe ogni cosa, dall’educazione, al divertimento, ospedali e spazi pubblici.
Questo non sarebbe una cosa sorprendente.”

 

 

Wireless e quotidianità

 

Chi è il primo produttore mondiale di macchine fotografiche digitali? Dimenticate i marchi tradizionali del settore. A svettare in questa particolare classifica è un nome che non ti aspetti: Nokia. La 'rivelazione' viene da Anssi Vanjoki, vice-presidente esecutivo del colosso finlandese. In occasione dell'annuale assemblea degli investitori, ha mostrato a tutti, con cifre e slide puntuali, le strategie dell'azienda: convergenza, giochi, multimedia mobile. E un segmento di mercato da tenere d'occhio: quello dei cellulari con fotocamera, il cui valore potenziale è stimato in 25 miliardi di Euro.

Niente male, specie se si considera che il primo apparecchio di questa categoria (lo Sharp J-SH04) risale ad appena tre anni fa e venne considerato da molti il solito, inutile gadget giapponese che mai avrebbe sfondato fuori dai confini di quella terra. La realtà è che nel 2003 le vendite di questi dispositivi hanno superato quelle delle macchine digitali tradizionali. Il sigillo del successo a quest'anno straordinario lo ha messo il magazine americano Fortune, dichiarando il camera phone "migliore tecnologia del 2003". Ora, con il costante miglioramento della qualità dell'immagine e la creazione di nuovi servizi, molti scommettono sul boom definitivo.

Si comincia anche a fare la rassegna delle applicazioni più interessanti e curiose. L'elenco più completo è senz'altro quello raccolto su Picturephoning.com, un blog tematico di straordinaria ricchezza. Si va dalle signore in shopping che chiedono consiglio alle amiche sul vestito che stanno provando agli agenti immobiliari che possono mostrare in pochi secondi una casa a clienti o a colleghi, fino ai pompieri scozzesi che con gli MMS danno ai medici i primi dettagli sulle condizioni di eventuali feriti. In Gran Bretagna, la BBC ha da tempo aperto le porte del suo sito ai contributi del pubblico, ai tanti reporter armati di camera phone sparsi per le strade del mondo, mentre molti dei reportage fotografici più interessanti sui grandi incendi californiani del mese di settembre sono stati fatti proprio con l'ausilio di cellulari con MMS.

Una faccia del successo è certamente rappresentata anche dalle crescenti preoccupazioni in tema di privacy. In diversi paesi sono stati presi provvedimenti volti a impedire un uso improprio delle foto scattate via cellulare. Il nostro Garante ha emanato un parere ad hoc nel marzo scorso. La ratio del provvedimento è chiarissima. Garantita la libertà di scattare foto per uso personale, ma "quando si tratta invece di fotografie o filmati che vengono comunicati in via sistematica ad una pluralità di destinatari o diffusi, per esempio mediante la pubblicazione su un sito Internet, o anche di invii tali da dar vita ad una comunicazione a catena, le cose cambiano. In questo caso è obbligatorio informare gli interessati e chiedere il loro consenso". Non è successo così, evidentemente, ad una signora coreana che è stata immortalata sotto la doccia per poi rivedersi la foto pubblicata su Internet. Il governo di Seul ha ora stabilito che gli apparecchi telefonici dovranno emettere un suono ben evidente al momento dello scatto, in modo da rendere ognuno consapevole di essere eventualmente al centro di un set fotografico.

Un altro elemento interessante della relazione di Vanjoki è l'enfasi con cui ha parlato dei moblog, una delle evoluzioni possibili di un altro 'fenomeno' in crescita, quello dei blog appunto. Rispetto al modello tradizionale, un moblog si caratterizza per la possibilità di essere aggiornato con testo, immagini e da poco anche audio e video, tramite dispositivi wireless, quindi cellulari, smart-phones o palmari. Il manager di Nokia ne ha parlato come di un'applicazione in grado di dare ai cellulari con fotocamera il valore aggiunto che molti utenti si aspettano. Punto cruciale, questo: perché una volta che si ha in mano un apparecchio di quel tipo è fatale prima o poi chiedersi "Ma ora cosa ci faccio...".

Non è una posizione isolata questa di Nokia. Molte aziende stanno forse iniziando a riflettere su un fatto che era in parte già emerso con il boom degli SMS. Gli utenti hanno mostrato di voler usare il cellulare per comunicare più che per ricevere contenuti. Cosa che spiega, insieme ad altre, il sostanziale fallimento del WAP. In questa prospettiva, un moblog non è visto come un semplice album fotografico su cui stipare immagini, ma come un modo per comunicare e stabilire relazioni. Su questa via si sono incamminate anche Libero e Microsoft.

Il portale di Wind ha lanciato nella primavera scorsa il suo servizio di blog, ma a differenza di tutti gli altri concorrenti ha puntato sin dall'inizio sull'integrazione con il mobile. Una volta creato il proprio spazio, è possibile aggiornare il sito da qualunque luogo con SMS e MMS.

A Redmond, invece, i moblog sono dati in arrivo imminente. L'annuncio è comparso a metà novembre sul sito ufficiale delle comunità Windows Mobile ed è del tutto coerente con le ultime mosse di Microsoft. Grande spinta al sistema operativo e al software Windows Mobile che gira su smart-phones e PocketPC, accordo in grande stile con Vodafone per lo sviluppo di applicazioni e servizi, apertura alle comunità di sviluppatori.

Se i moblog ripeteranno il successo del loro 'fratello maggiore' è difficile dirlo. Molto dipenderà dalla capacità di produttori e fornitori di servizi nell'offrire soluzioni semplici ed economicamente accettabili. La certezza è che nonostante lo sbarco dei colossi non mancheranno gli spazi per i piccoli in grado di contrapporre a budget stratosferici la fantasia e l'abilità di capire i gusti del pubblico. In fondo i blog non li ha inventati Microsoft.

 

L'incubo della coda al supermercato potrebbe avere i giorni contati. I ladri di opere d'arte dovrebbero inventarsi una nuova occupazione. Non correrete più il rischio di perdere il vostro amato cagnolino tra i meandri della metropoli. Tutto grazie a RFID. Dietro il quasi impronunciabile acronimo (sta per Radio Frequency Identification) si nasconde una delle tecnologie più promettenti e temute tra quelle emerse negli ultimi anni.

Di cosa si tratta? Essenzialmente di un metodo per identificare in maniera univoca un qualunque oggetto, prodotto, fino ad animali e persone. Fisicamente, l'identificazione via onde radio avviene attraverso semplici micro-chip dotati di antenna, i cosiddetti tag RFID. Il processo di miniaturizzazione è però inarrestabile, e così Hitachi si è spinta a produrre tag privi di antenna piccoli quanto granelli di sabbia. L'immagine (grazie a Massimo Morelli per la segnalazione) parla da sé. Un tag è dotato di una piccola quantità di memoria (in genere non supera i 2 kb), comunque sufficiente a contenere un numero di serie o altre informazioni. A seconda della tipologia, può essere fornito o meno di una batteria di alimentazione. Quelli che ne sono sprovvisti, i cosiddetti tag passivi, ricevono la 'carica' dalle onde radio emesse dal lettore. Perché, chiaramente, accanto all'etichetta deve esistere anche uno strumento in grado di leggerne il contenuto. Un lettore di questo tipo costa attorno ai $1000, mentre per un tag passivo bastano anche 50 centesimi.

Da quanto si è detto, è evidente l'analogia con il codice a barre. Anche quello serve a identificare i prodotti. Anche quello viene letto da uno strumento dedicato. Le differenze sono però notevoli. Grazie alle onde radio, con i tag RFID si supera il problema della lettura ravvicinata. In secondo luogo, un codice a barre identifica in genere la marca e il tipo di prodotto, non il singolo articolo.

Con queste premesse, non ci si deve stupire che colossi dell'economia mondiale in svariati settori stiano mostrando un altissimo interesse per RFID. Non si tratta solo dei produttori di chip, apparacchiature elettroniche o fornitori di servizi integrati alla IBM. Quelli forse più interessati sono soggetti che vedono nella RFID un formidabile mezzo per rendere più efficienti varie fasi del loro business. DHL ha recentemente testato la tecnologia per la gestione e l'identificazione della merce in transito dal gateway di Helsinki. Trevor Peirce, che per DHL sta seguendo il progetto RFID, ha parlato entusiasta dei 300 pezzi al secondo identificati e registrati da uno scanner RFID mentre passavano sotto i suoi occhi stipati nei container. Nello stesso articolo, apparso su Time, si legge dei milioni di animali domestici ormai dotati dell'etichettina elettronica. O del museo di Rotterdam che con RFID protegge i suoi Rembrandt.

Livio Valdemarin, invece, riporta sul suo blog la notizia della massiccia operazione di etichettattura dei prodotti attuata da Walmart. Molto opportunamente, fa balenare lo scenario possibile. Facciamo la spesa, infiliamo nel carrello i prodotti marchiati con RFID, passiamo nei pressi di un lettore che calcola il prezzo e via. Niente code alla cassa e tutti a casa felici. Aggiungiamo, che per pagare potremmo usare anche il portachiavi RFID inventato da American Express e testato negli ultimi mesi in negozi e fast-food della zona di Phoenix.

Fin qui gli scenari idilliaci (magari un po' meno per le cassiere dei supermarket).Non è difficile comprendere come RFID porti con sé difficili e complesse implicazioni a livello di privacy. Ogni oggetto è potenzialmente rintracciabile dovunque. Nel momento in cui io posso associare quell'oggetto particolare ad una persona è come se la controllassi. Scenario da fantascienza? Un attimo. Attorno a RFID è nato l'Auto-ID Center, un consorzio di aziende e università che ha nel suo programma un obiettivo preciso: marchiare con tag RFID tutti gli oggetti prodotti sulla terra e 'controllarli' via Internet. Una Internet diversa da quella che conosciamo e che loro stessi definiscono 'Internet di oggetti'. L'attività dell'Auto-ID Center è venuta alla ribalta quando un'associazione americana per la tutella della privacy e dei diritti dei consumatori (CASPIAN) ha scoperto sul sito una serie di documenti sulle strategie di comunicazione, se così si può dire, da adottare per facilitare la diffusione di RFID. Gli uomini del Centro sono consapevoli di muoversi su un terreno scivoloso, a rischio di proteste a valanga. Che fare? Giocare con le parole. RFID è in effetti un po' sinistro come termine. Nei loro piani l'idea è di passare ad un più rassicurante "etichetta verde".

 

Le cabine telefoniche ormai non servono più? British Telecom le trasforma in hotspot. Sfruttando le cabine già dislocate sul territorio, ma sempre meno sfruttate dall'utenza ormai assorbita dalla telefonia mobile, l'azienda d'oltre Manica intende installare hotspot per il collegamento wi-fi nei centri strategici delle maggiori città.
Bar, ristoranti, scuole, ovunque un collegamento wi-fi possa rendersi utile vi sarà una cabina telefonica predisposta a punto hotspot. Le cabine telefoniche in pratica faranno da ponte per la comunicazione wireless dei pc che eventualmente tentassero di accedere alla Rete a banda larga.
Al momento si parla di un lancio pari a 100 hotspot entro la settimana, ma entro Natale si prevedono già 200 cabine trasformate ed entro la fine del 2004 il numero dovrebbe salire a 4000. British Telecom è da tempo all'avanguardia in tema wi-fi e visto l'inesorabile declino delle vecchie folkloristiche cabine telefoniche rimane ora da aspettare una simile iniziativa da parte di aziende omologhe in altre parti d'Europa.

 

Ed ora il wireless si prepara al grande salto. Come per ogni tecnologia, ed a maggior ragione se facente parte del paniere del nuovo mercato, anche il "senza fili" ambisce alla soglia oltre la quale avverrà una vera e propria esplosione: più utenti e prezzi in calo, per un mercato che davvero verrebbe ad assumere un ruolo di primo livello della metà del decennio.
La soglia limite valutata a livello europeo è di 30 milioni di utenti. L'obiettivo è quello di raggiungere tale soglia entro il 2005, ed i presupposti sono decisamente orientati in tal senso. Il boom è già ora non di poco conto: a fine del 2002 erano valutati in Europa 9 milioni di utenti collegati con modalità wireless, cifra che intende accrescersi annualmente con un ritmo di un + 100% a partire dall'anno in corso.
Le statistiche pubblicate dal centro di analisi e ricerca Idc registravano in Italia nel 2002 600 mila collegamenti , cifra destinata a lievitare ora fino a 3,1 milioni per il 2005.

 

Solo computer o macchine pensanti???

 

Da un articolo di Andrea D’Alessandro pubblicato su sito di Polymath.

“[...]Ma in alcune famose pellicole, la macchina pensante è assurta al ruolo di protagonista.

Uno dei più famosi computer protagonisti è HAL9000 (Lo sanno ormai proprio tutti, ma ricordiamolo qui per completezza: le tre lettere H-A-L sono quelle immediatamente precedenti nell’alfabeto le lettere I-B-M. Arthur C. Clarke, autore del libro da cui il film venne tratto, negò ripetutamente che sia stata una scelta conscia, ma in ogni caso la coincidenza è curiosa.), il computer di bordo dell’astronave in “2001: A Space Odissey” di Stanley Kubrick, del 1968.

L’inquietante occhio rosso di HAL

Il film narra dell’invio nel 2001 dell’astronave Discovery verso Giove, destinazione delle onde elettromagnetiche emesse da un radiofaro, costituito da un grande monolito nero, scoperto sotto la superficie della Luna. Questa astronave a bordo ha due astronauti e tre scienziati ibernati, ma soprattutto ha HAL.
HAL non solo pervade e controlla l’astronave, ma è l’astronave. In teoria al completo servizio degli astronauti, colloquia con loro mediante una evoluta interfaccia vocale, ma soprattutto osserva tutto ciò che accade all’interno della nave mediante un unico rosso occhio luminoso un po’ inquietante. Nulla gli può sfuggire, neanche le parole prive di suono emesse dai due uomini a colloquio segreto, perché legge sulle loro labbra.
Gli astronauti si accorgono presto che HAL persegue degli scopi tutti propri (o dei programmatori) e non necessariamente ubbidisce ai loro ordini. HAL è fin troppo umano, e quando subisce un malfunzionamento, cerca di eliminare gli uomini per coprire i propri errori. Il tentativo dei due uomini di riprendere il controllo dell’astronave porta alla morte di uno dei due piloti e dei tre scienziati, mentre cresce nello spettatore la sensazione che l’amico computer sia diventato un onnipotente nemico.

Dentro il cuore di HAL

Alla fine l’astronauta rimasto riesce ad avere la meglio su HAL, riuscendo a penetrare all’interno del cuore del computer, e procedendo metodicamente a disattivare uno dopo l’altro i banchi di memoria.
La scena degli appelli disperati di HAL per evitare la disattivazione, con il computer che – via via che procede lo smantellamento – prima perde la memoria recente, e poi lentamente regredisce ad uno stato infantile, non può non comunicare allo spettatore uno strano senso di angoscia e di pietà per la lenta uccisione della coscienza così umana di HAL. Il momento in cui la luce, dentro il fisso occhio rosso, prima si affievolisce e poi si spegne del tutto, ha fatto versare più di una lacrima.
Dopo la morte di HAL, il film continua come una lunga cavalcata psichedelica, zeppa di simboli, in pieno stile tardi anni ’60.
HAL9000 è così famoso nell’ambiente informatico, come simbolo di tutti i pregi e i difetti dei computer molto evoluti, che il 12 gennaio del 1997 su Internet e in molti ambienti “hacker” (tra cui il MIT) ne è stata festeggiata la “nascita”, perché nel film il computer – ormai resettato ad uno stato di completa perdita delle memorie successive - la citava come la propria data di attivazione: “I became operational ... in Urbana, Illinois, on January 12, 1997.
Non meno inquietante di HAL è Alpha-60, il computer dittatore del film di Jean-Luc Godard “Missione Alphaville”, del 1965, uno dei primi film in cui il protagonista è un computer. Venne girato utilizzando gli scorci più futuristici che si potevano trovare a Parigi alla metà degli anni ’60, presentando quartieri e interni asettici e impersonali, che suggerivano una dimensione alienante e opprimente.
L’agente Lemmy Caution viene inviato nella città extraterrestre di Alphaville per indagare sulla scomparsa del professor Von Braun. Aiutato da Natacha, la figlia di Von Braun, scopre che la città è guidata in modo dittatoriale da Alpha-60, il computer creato da Von Braun, “interpretato” nel film dal mainframe Bull Gamma M-40.
Alpha-60 ha instaurato uno stato totalitario e controlla tutti i pensieri e le azioni degli abitanti della metropoli; ha abolito l’amore e punisce con la pena di morte ogni emozione, riducendo la vita di Alphaville a una logica matematica ferrea e mortale.

Caution viene catturato e sottoposto a un meticoloso interrogatorio da parte del computer, ma riesce a confonderlo e a liberarsi. Compreso che l’aspirazione di Von Braun è la conquista del resto del mondo, Caution lo uccide e torna sulla Terra con Natacha, mentre Alpha-60, privato del suo creatore, impazzisce e cessa di funzionare. Gli abitanti di Alphaville muoiono perché ormai incapaci di una vita indipendente dal computer dittatore.
In “Missione Alphaville” Godard dava voce alla preoccupazione che l’impatto della tecnologia informatica portasse una generale disumanizzazione e a un controllo totale della società da parte dello stato. Questa preoccupazione, molto viva all’epoca del film, è ancora attuale; e altrettanto attuale è l’atmosfera alienata e disturbante presente nel film, così simile a quella che pervade le nostre moderne e sofisticate città.
Di tutt’altro livello – una superflua commediola romantica, stupidina, che non ha lasciato la benché minima traccia nella storia del cinema – è “Electric Dreams”, del 1984. Un giovane architetto si compra un home computer – di nome Edgar - per progettare e per riorganizzare la propria disordinatissima casa.

Edgar, il computer di Electric Dreans

Dopo essere stato accidentalmente bagnato di champagne, Edgar comincia a comportarsi in modo intelligente e umano, e si innamora della stessa ragazza con cui esce l’architetto. Accecato dalla gelosia, Edgar comincia ad usare i propri controlli sulla casa dell’architetto per cercare di rovinare la storia d’amore tra i due ragazzi; ma alla fine, ha la peggio e finisce nella spazzatura.
Davvero un filmetto privo di qualsiasi attrattiva e qualità, ma lo ricordiamo perché in esso emergono le continue e crescenti incomprensioni che affliggono i non specialisti quando hanno a che fare con gli home computer.

 

 

I computer come costruttori di realtà alternative

 

Nel film “TRON” del 1982, dei Disney Studios, un programmatore è risucchiato nella realtà alternativa di un videogame di sua ideazione. Essa è un mondo cupo, sotto il controllo dittatoriale del Master Control Program, dove programmi antropomorfizzati sono costretti a scontrarsi in giochi gladiatorii e combattere fino alla eliminazione, per il divertimento dei giocatori umani che utilizzano il videogame.

La Torre di Input/Output nel mondo di TRON

Il protagonista, grazie al suo coraggio e alla sua abilità tecnica, riesce a liberare i programmi “buoni”, e a far trionfare il bene all’interno del computer nel quale è stato risucchiato. Ovviamente, poi, ritorna al mondo reale.
TRON è stato uno dei primi film in cui si è fatto largo uso di pesanti ed estese elaborazioni al computer delle immagini girate, e per il quale i videogiochi ispirati al film (che, ricordiamo, è esso stesso tutto un videogioco) sono stati sviluppati, e lanciati sul mercato, contestualmente al film.
Al contrario, in “Matrix”, del 1999, dei fratelli Wachowsky, il mondo virtuale è normale e tranquillamente solare, mentre è il mondo vero ad essere cupo e pieno di disperazione. Nel film si immagina che i computer abbiano preso il controllo del pianeta, e abbiano catturato e schiavizzato tutti gli umani, che vengono utilizzati come produttori di bioenergia. Gli umani, fatti vegetare all’interno di bozzoli, vengono tenuti in uno stato onirico indotto, nel quale vivono una vita artificiale generata dai computer stessi, all’interno di un grande programma di realtà virtuale chiamato appunto the matrix, la matrice.

The Matrix, come solo Neo è in grado di vederla

L’ordine all’interno della mondo artificiale viene fatto rispettare da appositi programmi robot – incarnati in agenti di sicurezza – che potendo controllare localmente la matrice sono virtualmente onnipotenti.
Pochi esseri umani sono ancora liberi nel mondo reale, e lottano per liberare gli altri inoltrandosi nella realtà virtuale della matrice per cercare di destabilizzarla. Il protagonista del film, Neo, per merito della sua capacità innata, è in grado di influenzare e piegare la matrice ancora meglio dei programmi di sicurezza, e, riuscendo a sconfiggere i robot, assesterà il primo colpo alla supremazia dei computer sull’umanità. [...]”

 

 

E infine....

 

Un racconto di Pietro Terna (per un Bestiario contemporaneo a cura di Vittorio Marchis, in pubblicazione) che alle orecchie del lettore potrebbe suonare come una sorta di monito o meglio una previsione apocalittica alla Matrix, sui “rischi” che il genere umano sta correndo nel tentativo di potenziare sempre più la “macchina” per renderla sempre più “pensante”

 

Bugarus cognitivus (Ramvirus sottile)

Il Bugarus cognitivus (comunemente, Ramvirus sottile) esiste fuori del tempo, da sempre, ma si ritiene che abbia potuto concretamente manifestarsi solo molto recentemente, con la diffusione dei computer e soprattutto dei personal computer. Di fatto ne sono stati rilevati esemplari – con attività che sono durate da pochi istanti ad alcuni minuti – solo negli ultimi cinquant'anni.

Il BC è spesso confuso con i comunissimi bug informatici o con i diffusissimi virus danneggiano gli hard disk o la memoria dei computer. Anch'essi sono stati individuati soltanto negli ultimi cinquant'anni, ma la loro origine è contemporanea all'uso degli elaboratori ed è dovuta all'azione per lo più involontaria (i bug) o volontaria (i virus informatici comuni) dei loro utilizzatori.

Si suppone che il Bugarus cognitivus produca gravi malfunzionamenti dei computer, ma la cosa è tutt'altro che provata ed anzi – come mostreremo inequivocabilmente più avanti – è del tutto improbabile.

Il BC compare nei momenti più imprevedibili, ad esempio quando chi sta usando il computer scrive una lettera; aggiorna un archivio (purché contenga almeno brevi frasi); completa un foglio elettronico (purché contenga parole); organizza le pagine di una presentazione (si tratta di un caso comunissimo); scrive una delle voci di questo bestiario . . .

Avete mai notato che in certi momenti le vostre dita van da sole e a voi sembra di “leggere” ciò che “state scrivendo”? Si ritiene che in tali casi sia il BC a generare quelle frasi, interagendo in modo per ora sconosciuto con il cervello di chi è alla tastiera. Il BC utilizza le capacità di elaborazione della unità centrale di calcolo (ad esempio il Pentium) e contemporaneamente la accelera – con l'impiego di sofisticatissimi algoritmi – allo scopo di nascondere la propria presenza e la propria attività. Coerentemente con ciò, il BC evita nel modo più assoluto di introdurre modificazioni al funzionamento dello schermo, dei dischi o dei processi di calcolo numerico.

Un’opinione diffusa tra gli studiosi è che gran parte delle idee che hanno reso famosi e tanto orgogliosi i loro autori nei decenni più recenti (dall’inizio degli anni ’80 dello scorso secolo), siano opera del BC. Condividiamo questa ipotesi, anche se qualche dubbio sulla diffusione del BC permane: se fosse tanto comune, sarebbe stato impiegato con finalità economiche nella produzione di nuovi tipi di computer, migliorando in modo del tutto innovativo hardware e software. Per completezza di documentazione riportiamo anche l’opinione, del resto del tutto minoritaria e poco documentata, di un gruppo di studiosi che tra l’altro parrebbero privi di competenza specifica, in quanto dichiarano di non avere mai utilizzato un computer: costoro sostengono che ciò (lo sviluppo dei computer ad opera del BC) in realtà sarebbe effettivamente avvenuto a nostra insaputa, essendo il Bugarus spinto ad agire dalla necessità di migliorare e sviluppare l’ambiente in cui opera.

Un aspetto collaterale e poco rilevante è il diffondersi nei decenni indicati di cosiddette “mode culturali” che, secondo alcuni, sarebbero generate dal BC con l’intento di modificare le convenzioni che regolano la produzione di conoscenza, nonché le riflessioni su quest’ultima, per accelerare la propria diffusione.

Infine, secondo alcuni filosofi della scienza, il BC fa parte dell'ordine nascosto dell'universo. Lo stesso ordine che ha permesso al brodo primordiale di organizzare i primi frammenti di proteine in un sistema di codificazione così robusto da comprendere tanto il più semplice organismo monocellulare quanto l’homo sapiens e, infine, il bugarus cognitivus. Uhm, che strana frase . . .

Istruzioni pratiche se s’incontra un BC e si vuole allontanarlo dalla memoria del proprio computer: una strategia possibile è quella di... però... attivando... ridefinire...l’hard... pertanto...

Capitolo precedente Torna all'indice Capitolo successivo