La telematica e le reti di computer

Cos'è la telematica

La parola telematica è un neologismo derivato dalla fusione di due parole: telecomunicazione e informatica. La telematica si occupa dell'uso delle tecnologie informatiche nell'ambito delle telecomunicazioni; applicazioni telematiche sono ad esempio gli sportelli Bancomat, i fax e i terminali per la lettura delle carte di credito. Le reti telematiche connettono fra loro più computer, attraverso cavi telefonici, fibre ottiche, ponti radio, satelliti, ecc. Su reti di questo tipo possono transitare velocemente grandi quantità di dati. I vantaggi del collegamento attraverso le reti sono molteplici. Un computer in rete può accedere alle risorse informative residenti su altri computer, può utilizzare periferiche, come stampanti o fax, collegate ad altri elaboratori, e così via.

Reti locali e reti su territorio

Esistono vari tipi di rete, dalle più piccole, che possono essere composte anche solo da due personal computer, a reti enormi, con migliaia di computer, distribuiti su vaste aree geografiche.

Le reti di primo tipo, dette LAN (Local Area Network), realizzate cioè in sede locale - tipicamente all'interno di uno stesso edificio - nascono nella maggioranza dei casi per un uso d'ufficio (condivisione di periferiche, scambio di messaggi tra un piano e l'altro, ecc.) e spesso non permettono alcun tipo di accesso dall'esterno.

Le reti più vaste, dette 'geografiche' o WAN (Wide Area Network), connettono computer spesso assai distanti l'uno dall'altro, ad esempio le varie sedi di una multinazionale. Queste reti sono, per la loro stessa natura, molto più 'aperte' delle reti locali, hanno cioè già predisposte tutta una serie di procedure per accogliere nuovi elaboratori remoti: da quelli di una eventuale nuova sede, fino al computer portatile di un dipendente munito di modem e (ovviamente) linea telefonica.

L'estensione sul territorio è la caratteristica specifica delle reti WAN (Wide Area Network), e questo sia a livello nazionale (in Italia per esempio il CINECA, Itapac, le reti bancarie), sia a livello continentale (per l'Europa si possono citare: EuropaNet, Ebone, Eunet) o mondiale. Alcune di queste grandi reti, ad esempio quelle bancarie, per motivi di sicurezza non hanno di norma alcun vantaggio nel cercare collegamenti con strutture esterne; ma la maggior parte delle WAN ha invece una vera e propria 'fame di connessioni'.

Le reti tendono sempre di più a connettersi l'una con l'altra, abbracciando fra le loro 'maglie' tutto il mondo. Le reti nazionali diventano parte delle reti continentali, e queste delle reti mondiali. Basta un anello di congiunzione, e i dati possono viaggiare da una rete all'altra.

Una rete di reti

Internet - o più semplicemente 'the Net', 'la rete' - è una sorta di meta-rete costituita da molte reti telematiche connesse tra loro. Non ha importanza quale sia la tecnologia che le unisce: cavi, fibre ottiche, ponti radio, satelliti, o altro. Non è neanche rilevante di che tipo siano i computer connessi: dal piccolo personal computer al grosso elaboratore, o mainframe. Punto di forza di Internet, e motivo del suo velocissimo espandersi, è la sua capacità di 'parlare' un linguaggio universale, adatto alla quasi totalità degli elaboratori esistenti.

Secondo le stime più recenti, si calcola che Internet colleghi più di 150.000 sottoreti, e decine di milioni di computer. Alcune delle linee di comunicazione più importanti fra quelle che compongono la rete, essendo le principali arterie attraverso le quali transita il flusso di dati, prendono il nome di 'backbone' (dorsali). Backbone sono, per esempio, le linee portanti delle imponenti reti accademiche americane NSFnet (National Science Foundation Network) e CSnet (Computer Science Network).

Il numero degli utenti Internet è difficile da valutare, ma probabilmente si aggira intorno ai 100.000.000002. Ciò che va evidenziato è che questo numero è in continuo e rapidissimo aumento in tutto il mondo (l'incremento è stato nell'ultimo periodo superiore al 10% mensile, pari a un nuovo sistema connesso ogni 10 minuti).

Internet, Intranet, Extranet

Internet si basa su una struttura portante di linee dedicate (attive 24 ore su 24) ad alta velocità. Ma il mondo Internet non è riservato alle istituzioni accademiche o alle aziende che si possono permettere costose linee dedicate: anzi, moltissimi utenti della rete accedono al patrimonio informativo comune tramite le normali reti telefoniche. Internet oggi ha una diffusione globale, ed è il medium che si è diffuso più velocemente nella storia delle comunicazioni di massa.

Come abbiamo già accennato, uno dei fattori che ha fatto la fortuna di Internet è la capacità di connettere computer, e sistemi telematici, diversi. I computer della rete parlano tutti la stessa lingua. Questa koiné è il protocollo di trasferimento dati TCP/IP (di cui parleremo per esteso in seguito). Gli sviluppatori del protocollo - Bob Khan e Vinton Cerf - non solo crearono un prodotto valido ed estremamente versatile, ma decisero di regalarlo all'umanità, non vincolando il software a nessuna forma di copyright. TCP/IP permette di far parlare fra loro milioni di computer in tutto il mondo, ma anche di connettere efficientemente le poche macchine di una rete locale. Grazie alle sue caratteristiche di economicità e versatilità, infatti, molte aziende iniziano ad utilizzare TCP/IP per le proprie reti interne. Queste reti, per lo più aziendali, vengono ormai comunemente indicate con il nome di Intranet. Una rete Intranet, vista l'intrinseca necessità di sicurezza di una rete aziendale, è normalmente inaccessibile al comune utente Internet. Al contrario, da una Intranet si ha in genere la possibilità di navigare sulla rete delle reti.

Se una rete Intranet è dunque paragonabile ad un ambiente con delle porte capaci di aprirsi solo dall'interno, le Extranet sono delle reti con tecnologia TCP/IP il cui scopo è connettere fra di loro le reti locali di diverse aziende003. Anche le reti Extranet non sono di solito liberamente raggiungibili da tutti gli utenti Internet: la tecnologia usata è la stessa, ma lo scambio di informazioni riguarda i soli utenti autorizzati.

Per la trasmissione privata su linee pubbliche, come quelle di Internet, stanno nascendo una serie di protocolli TCP/IP compatibili che garantiscono trasferimenti di dati ragionevolmente sicuri per le aziende o istituzioni che li utilizzano e completamente invisibili per il resto degli utenti. In questo caso la tecnica di connessione prende il nome di 'tunneling'. Proprio per realizzare questo genere di connessioni ibride, che utilizzano linee pubbliche per trasmissione di dati privati, in questi mesi sta nascendo l'ennesima guerra di standard fra le grandi aziende dell'informatica: l'Internet Engineering Task Force propone il protocollo IPsec, la Sun la tecnologia SKIP, la Microsoft propone il suo PPTP. Da questa guerra ancora non è emerso lo standard vincente, l'unica cosa certa è che un tale spiegamento di forze dimostra con certezza che le Extranet avranno sicuramente un ruolo importante nel futuro prossimo della rete.

La storia di Internet

Internet è frutto indiretto della 'Guerra fredda'. Nei primi anni sessanta era diffuso nel mondo il terrore di una guerra nucleare. Dopo l'incidente della Baia dei Porci a Cuba, la tensione USA-URSS raggiunse i massimi livelli. Nel 1964 anche la Cina sperimentava la propria bomba atomica.

In questi frangenti, il Ministero della Difesa americano avviò un progetto di ricerca che aveva il fine di preservare le telecomunicazioni in caso di guerra nucleare. Per la realizzazione di questo progetto nacque l'agenzia governativa ARPA, che coordinava e finanziava la ricerca nel campo delle telecomunicazioni militari. Gli uomini dell'ARPA004 si dovettero ben presto rendere conto che non esisteva alcun mezzo per garantire la funzionalità di un centro di telecomunicazioni sottoposto a un attacco nucleare. L'idea partorita dalla RAND Corporation nel 1964 si basava proprio su questo presupposto. Se non è possibile mantenere intatta una rete di telecomunicazioni, è necessario allora creare un'infinità di strade alternative per la circolazione dei dati, di modo che anche l'eventuale distruzione di molti dei nodi funzionanti non interrompa il flusso delle informazioni all'interno della rete.

Arpanet: una rete militare

La trovata, semplice e geniale al tempo stesso, aveva il suo punto forte nel concepire una rete decentralizzata, in modo che ciascun nodo potesse continuare a lavorare, ricevendo, elaborando e trasmettendo informazioni, anche nel caso in cui alcuni fra i nodi vicini fossero stati danneggiati da una esplosione nucleare. Il fatto che non vi fosse un nodo centrale era necessario: esso sarebbe stato, a priori, un obiettivo strategico, la cui distruzione avrebbe compromesso il funzionamento dell'intera rete.

Per installare un sistema che, in caso di interruzione delle comunicazioni tra due nodi, potesse individuare immediatamente un collegamento alternativo, era necessario utilizzare uno strumento più intelligente di una semplice centrale telefonica. Perciò si pensò agli elaboratori elettronici.

Il primo nodo di questa rete, che verrà di lì a poco battezzata con il nome di Arpanet, fu attivato nell'autunno del 1969 mettendo in connessione quattro elaboratori Honeywell 516 dotati di 12 KB di memoria005. Nel 1972 Arpanet contava già trentasette nodi. Negli anni seguenti la rete crebbe in maniera esponenziale, grazie alla sua struttura volutamente decentrata, che rendeva tecnicamente semplice aggiungere nuovi collegamenti, e grazie anche all'uso di protocolli standard di trasmissione dati. Il primo, rudimentale, protocollo si chiamava NCP (Network Control Protocol), ben presto sostituito dal TCP/IP (Transmission Control Protocol/Internet Protocol), utilizzato ancora oggi. I protocolli avevano (e continuano ad avere) il compito di rendere possibile la comunicazione e lo scambio dei dati fra i vari sistemi collegati, spesso diversi fra loro per potenza di calcolo, per sistema operativo, per marca.

NFS e lo sviluppo di Internet

Negli anni '80 all'interno di Arpanet si formarono tre network distinti: NSFnet006 (National Science Foundation Network), BitNet (Because It's Time Network), CSnet (Computer Science Network). NSFnet, grazie ad una linea a 58 Kbps007, divenne la colonna portante di Internet, la sua prima 'backbone' ('spina dorsale'). Nel 1989 NSFnet venne potenziata attraverso una rete 'T1' a 1,544 Mbps.

L'esplosione della rete

Nel 1983 la sezione militare si staccò da questo nuovo macrorganismo in continua espansione. Arpanet morì e nacque Internet. La rete era ormai usata da moltissime università in tutto il mondo, soprattutto per lo scambio di posta elettronica. Il fatto che non esistessero strutture direttive centrali, e che ogni nuovo sistema connesso fosse, dal punto di vista finanziario-amministrativo, responsabile solo delle proprie macchine e del proprio tratto di rete, aiutò Internet a crescere liberamente (e velocemente!). Grazie alla posta elettronica si svilupparono delle vere e proprie 'tavole rotonde' collettive (evolutesi poi nelle mail-list e nei newsgroup Usenet - ne parleremo in seguito); la prima fu dedicata alla fantascienza. Internet non era più un semplice strumento di trasmissione dati tra elaboratori, era diventato anche un punto di incontro e di scambi culturali.

Tuttavia ciò che maggiormente ha contribuito alla diffusione di Internet, la tecnologia che ha reso popolare la rete, è stata un'invenzione del CERN di Ginevra: World Wide Web (WWW). Programmi in grado di 'navigare' su World Wide Web (come Netscape, Internet Explorer, Mosaic, ecc.) possono visualizzare, oltre al testo, immagini e filmati, possono riprodurre suoni digitalizzati e possono gestire documenti ipertestuali. Chiunque disponga di un computer dotato di normali capacità di calcolo e di memoria può con dei semplici 'click' del mouse sfogliare un libro, vedere un quadro esposto al Louvre (o meglio: una sua riproduzione digitale), ascoltare brani musicali.

L'utilizzo di strumenti più efficienti e più facili da usare, ma più dispendiosi in termini di consumo di banda passante, ha comportato un'impennata nella richiesta di connettività. Già nel '92 il backbone NSFnet ha dovuto essere potenziato con una linea 'T3' a 44,736 Mbps. Da allora la rete ha iniziato a potenziarsi a ritmi frenetici, al punto da indurre i più pessimisti a ritenere che da lì a breve tutto sarebbe collassato: una previsione che i fatti si sono incaricati finora di smentire.

Non è fantascienza immaginare che presto gran parte della comunicazione interpersonale, soprattutto di quella su lunghe distanze, sarà gestita da personal computer col supporto di reti telematiche come Internet, in gran parte attraverso collegamenti via cavo e via satellite. Lo sviluppo e l'integrazione di questi nuovi 'media' porterà probabilmente alla fine dell'autogestione delle grandi reti telematiche.

Verso Internet II?

Il futuro di Internet sembrerebbe, ancora una volta, venire principalmente dagli USA. Il nome Internet II designa infatti un ambizioso progetto che coinvolge istituzioni governative e federali americane, decine di università, e grandi aziende del settore informatico e delle telecomunicazioni. Il programma Internet II si propone come primo scopo quello di aumentare in maniera sensibile la portata delle linee della rete, e realizzare una conseguente ristrutturazione delle sue architetture software ed hardware. Come già avvenuto nel primo periodo di attività di Internet, le università serviranno da 'testa di ponte' sperimentale per una serie di nuove applicazioni telematiche che dovranno in seguito essere diffuse su scala globale.

Una delle prime forme di sperimentazione in questa direzione è stata attuata con il VBNS (Very High Bandwidth Network Service) della NSF (National Science Foundation), una rete sperimentale operativa dall'aprile del 1995. VBNS si avvale della collaborazione di aziende del calibro della MCI e di gruppi di ricerca come il Cornell Theory Center ed il National Center for Supercomputing Applications (NCSA).

Altre iniziative con le stesse finalità sono: la NGI (Next Generation Internet) sponsorizzata direttamente dal governo americano; l'Internet II Consortium; ed IPng (IP next generation) che punta alla diffusione di versioni sempre più avanzate del protocollo TCP/IP, attualmente alla base di tutti i trasferimenti dati della rete.

Il lavoro di questi gruppi di ricerca ha sottolineato come sia necessario reagire all'incremento dell'utenza di Internet non solo con il potenziamento delle linee e delle strutture hardware della rete, ma anche con cambiamenti nell'architettura dei protocolli. Uno dei punti nodali della ricerca è la messa a punto di IP (Internet Protocol) versione 6 (attualmente gli utenti della rete utilizzano 'IP 4')008. Un altro interessante obiettivo degli esperti che lavorano per il rinnovamento della rete è, in sigla, il QoS (Quality of Service), che si ripropone di gettare le basi per uno standard sul controllo della qualità delle trasmissioni in rete, tale da garantire diversi livelli di servizio. In base a questi standard l'utente pagante potrà contestare la qualità del servizio offerto dal rivenditore di connettività che si dovrà impegnare a rispettare la velocità di trasmissione e ricezione dati prescritta.

L'idea di fondo di potenziare al massimo grado l'interattività e la multimedialità della rete, anche attraverso traffico vocale (in alternativa alle normali linee telefoniche), videoconferenze, 'video on demand', ha portato allo studio di nuove tecniche di trasmissione (Multicasting) che attualmente sono l'ennesimo fronte di battaglia per gli studiosi che stanno realizzando una nuova generazione per la rete.

Le potenzialità commerciali di Internet II sono enormi: basti solo pensare che il 'video on demand' via Internet (una televisione interattiva, attraverso la quale l'utente ha la capacità di costruirsi un personale palinsesto televisivo) potrebbe sostituire almeno una parte dell'attuale programmazione televisiva (ad esempio i canali tematici, che proprio in questi anni stanno conoscendo un forte sviluppo). Tutto ciò, a detta degli esperti, dovrebbe iniziare a concretizzarsi, almeno fra le istituzioni accademiche americane, nel giro di 3-5 anni.

Ovviamente non possiamo considerare un progetto in progress quale è quello di Internet II come un dato acquisito. Le incognite economiche, tecniche, politiche, che si legano a progetti di questa portata non sono, allo stato attuale delle cose, valutabili. Per ora in America la volontà politica di potenziare le risorse telematiche è chiaramente avvertibile, anche da parte delle stesse istituzioni militari che hanno contribuito alla sua nascita. I militari ricercano attraverso le nuove tecnologie telematiche una soluzione al problema della 'consapevolezza del campo di battaglia dominante': sapere cioè in quale parte del mondo, e quando, è necessario concentrare lo sforzo economico, strategico o bellico. È probabile che in futuro lo spionaggio sui 'territori della rete', effettuato per lo più attraverso l'uso di programmi-agenti intelligenti, si riveli strategicamente altrettanto importante delle rilevazioni effettuate attraverso satelliti o aerei spia sul territorio fisico.

Il fatto che proprio da precise volontà politiche e da esigenze militari sia nata l'Internet attuale può farci apparire il progetto Internet II come qualcosa di molto concreto. Per ora una cosa appare certa: la rete si trasformerà, magari anche profondamente, cambiando servizi e tecnologie, ma non scomparirà. Alla continua crescita nel numero degli utenti continuerà a corrispondere, anche in futuro, un potenziamento delle linee e dei protocolli di comunicazione.