Nuove frontiere[ vai a Sezione 01 ] [ Sezione 02 ] Un nuovo paradigma: SGML su Web e XMLLe novità tecnologiche di cui abbiamo parlato fino ad ora costituiscono gli ultimi stadi evolutivi dell'attuale architettura per la gestione dei documenti su World Wide Web. Esse senza dubbio contribuiranno a migliorarne l'efficienza e la fruibilità. Tuttavia non rappresentano una soluzione adeguata per ovviare ad alcuni importanti limiti di cui tale architettura soffre. La causa di tali limiti infatti risiede nel cuore stesso di Web, il linguaggio HTML. Possiamo suddividere i problemi determinati da HTML in due categorie:
La prima categoria è relativa al modo in cui vengono rappresentati i documenti. La rappresentazione e la codifica dei dati sono il fondamento di un sistema di gestione dell'informazione. Da questo punto vista HTML impone importanti restrizioni: in primo luogo si tratta di un linguaggio di rappresentazione chiuso e non modificabile; l'autore di un documento può soltanto scegliere tra un insieme prefissato di elementi, anche se la struttura del suo documento richiederebbe di esplicitarne altri, o di qualificarli in modo diverso. In secondo luogo si tratta di un linguaggio scarsamente strutturato e con una sintassi poco potente, che non consente di rappresentare esplicitamente informazioni altamente organizzate come ad esempio una descrizione bibliografica, un record di database o un sonetto petrarchesco; conseguentemente non può essere usato come sistema di interscambio per informazioni complesse. A questo si aggiunge la confusione determinata dalla presenza di istruzioni che hanno una funzione stilistica pittosto che strutturale. Una ulteriore limitazione riguarda la definizione dei link ipertestuali. Si potrebbe dire che questo linguaggio di codifica usurpa il suo nome. Infatti è dotato di un solo costrutto ipertestuale, il link unidirezionale dove sia l'origine che la destinazione debbono essere esplicitate nei rispettivi documenti. La ricerca e le applicazioni sui sistemi ipertestuali invece, sin dagli anni settanta, hanno sviluppato una complessa tipologia di collegamenti ipertestuali, che corrispondono a diverse relazioni semantiche. Un breve e disordinato elenco potrebbe comprendere almeno i seguenti:
Dai limiti rappresentazionali discendono quelli operativi, che riguardano il modo in cui autori e lettori interagiscono con il sistema. In primo luogo il controllo sull'aspetto di un documento, come abbiamo visto, è assai limitato e rigido. Una pagina Web deve essere progettata per uno schermo dotato di determinate caratteristiche, con il rischio di avere risultati impredicibili su altri dispositivi di visualizzazione o nella stampa su carta. Inoltre HTML non consente di generare dinamicamente 'viste' differenziate di un medesimo documento in base alle esigenze del lettore. Questo permetterebbe, ad esempio, di ottenere diverse versioni linguistiche a partire da un unico documento multilingua; oppure, in un'applicazione di insegnamento a distanza, di mostrare o nascondere porzioni di un documento a seconda del livello di apprendimento dell'utente. E ancora, la scarsa consistenza strutturale impedisce la generazione automatica e dinamica di indici e sommari. E per lo steso motivo si riduce notevolmente l'efficienza della ricerca di informazioni su Web. I motori di ricerca, infatti, sono sostanzialmente sistemi di ricerca full-text, che non tengono conto della struttura del documento e restituiscono riferimenti solo a documenti interi. Per superare questi limiti è stato proposto un vero e proprio salto di paradigma: la generalizzazione del supporto su Web allo Standard Generalized Markup Language (SGML). L'idea di base è molto semplice: HTML è una particolare applicazione SGML, che risponde ad alcune esigenze; perché non modificare l'architettura del Web per consentire di usare anche altre applicazioni SGML? La possibilità di distribuire documenti elettronici in formato SGML garantirebbe ai fornitori di contenuti un notevole potere di controllo sulla qualità e sulla struttura delle informazioni pubblicate. Ogni editore elettronico potrebbe utilizzare il linguaggio di codifica che maggiormente risponde alle sue esigenze, a cui associare poi uno o più fogli di stile al fine di controllare la presentazione dei documenti pubblicati. L'attuazione di questa rivoluzione, tuttavia, non è indolore:
Per superare questi ostacoli il W3C ha deciso di sviluppare un sottoinsieme semplificato di SGML, pensato appositamente per la creazione di documenti su Web. Questo linguaggio è stato denominato Extensible Markup Language (XML), ed è dotato di alcune caratteristiche tecniche che ne facilitano notevolmente l'implementazione, pur mantenendo intatti i vantaggi offerti dal più complesso progenitore. Prima di vedere più da vicino di cosa si tratta, però, è bene dare alcune nozioni sulla tecnologia da cui deriva. SGML: una brevissima introduzioneLo Standard Generalized Markup Language, ideato e sviluppato da Charles Goldfarb, è un sistema per la creazione e l'interscambio di documenti elettronici adottato dalla International Standardization Organization (ISO). Il rilascio ufficiale dello standard risale al 1986, ma solo da pochi anni ha cominciato a guadagnare consensi, e ad essere utilizzato in un vasto spettro di applicazioni concrete071. L'idea alla base di SGML è quella dei linguaggi di markup, che abbiamo già visto nel paragrafo introduttivo su HTML. Si possono distinguere due tipologie di linguaggi di markup:
Il primo tipo (i cui testimoni più illustri sono lo Script, il TROFF, il TEX) consiste di istruzioni operative che indicano la struttura tipografica della pagina (il lay-out), le spaziature, l'interlineatura, i caratteri usati. Questo tipo di marcatura è detta procedurale in quanto indica ad un programma le procedure di trattamento cui deve sottoporre la sequenza di caratteri al momento della stampa. Il markup dichiarativo invece permette di descrivere la struttura astratta di un testo. SGML rientra in questa seconda classe. Per la precisione, più che un linguaggio, lo SGML è un metalinguaggio. Esso prescrive precise regole sintattiche per definire un insieme di marcatori e di relazioni tra marcatori in una tabella, denominata Document Type Definition (DTD), ma non dice nulla per quanto riguarda la tipologia, la quantità e il nome dei marcatori. Questa astrazione, che permette di definire infiniti linguaggi di marcatura, costituisce il nucleo e la potenza dello SGML: in sostanza, SGML serve non già a marcare direttamente documenti, ma a costruire, rispettando standard comuni e rigorosi, specifici linguaggi di marcatura adatti per le varie esigenze particolari. Un linguaggio di marcatura SGML a sua volta descrive la struttura logica di un documento, e non prescrive la sua forma fisica (questo, come visto, è il compito di un foglio di stile). La struttura astratta di un documento viene specificata dichiarando gli elementi che lo costituiscono, come titolo, paragrafo, nota, citazione, ecc., e le relazioni gerarchiche che tra questi intercorrono. Infatti in ambito SGML un documento viene visto come un albero strutturato di oggetti. A ciascun elemento corrisponde un marcatore. Una volta definito un determinato linguaggio, è possibile utilizzare i marcatori per codificare il contenuto di documenti elettronici. La sintassi standard prevede che i marcatori siano racchiusi tra i simboli di maggiore e minore. Ogni elemento viene identificato da un marcatore iniziale e uno finale (costruito premettendo una barra al nome del marcatore iniziale), a meno che non sia un elemento vuoto (nel qual caso è identificato solo dal marcatore iniziale). Un testo codificato dunque ha il seguente aspetto072: <text> Un linguaggio di marcatura che rispetti le specifiche SGML - e gli eventuali sistemi informativi ad esso collegati - viene definito 'applicazione SGML' (SGML application). Senza dubbio la più diffusa in assoluto di queste applicazioni è proprio HTML, sebbene il legame con SGML sia sconosciuto alla maggioranza dei suoi stessi utilizzatori. Ma esistono molte altre applicazioni SGML, alcune delle quali sono molto complesse e potenti. Pensate che alcune di queste applicazioni (come la Text Encoding Initiative, una DTD sviluppata dalla comunità internazionale degli studiosi di informatica umanistica) mettono a disposizione centinaia di istruzioni di codifica. La codifica SGML dei testi elettronici, oltre alla sua potenza espressiva, offre una serie di vantaggi dal punto di vista del trattamento informatico. In primo luogo, poiché un file SGML può essere composto di soli caratteri ASCII stampabili, esso è facilmente portabile su ogni tipo di computer e di sistema operativo. Inoltre un testo codificato in formato SGML può essere utilizzato per scopi differenti (stampa su carta, presentazione multimediale, analisi tramite software specifici, elaborazione con database, creazione di corpus linguistici automatici), anche in tempi diversi, senza dovere pagare i costi di dolorose conversioni tra formati spesso incompatibili. Ed ancora, la natura altamente strutturata di un documento SGML si presta allo sviluppo di applicazioni complesse. Possiamo citare ad esempio l'aggiornamento di database; la creazione di strumenti di information retrieval contestuali; la produzione e la manutenzione di pubblicazioni articolate come documentazione tecnica, manualistica, corsi interattivi per l'insegnamento a distanza. XML e gli standard correlatiL'adozione di una tecnologia come SGML su Web, risolverebbe molti dei problemi che ne limitano le potenzialità. Tuttavia SGML ha una complessità tale da renderne assai difficile l'implementazione tecnica. Per questa ragione il W3C ha preferito sviluppare una versione leggera dello standard. Nasce in questo modo Extensible Markup Language (XML), probabilmente il più importante progetto dell'organizzazione a far data dalla nascita di World Wide Web. Il progetto XML ha avuto inizio alla fine del 1996, nell'ambito della SGML Activity del W3C. Ma l'interesse che ha attirato sin dall'inizio (testimoniato da centinaia di articoli sulle maggiori riviste del settore) ha portato il W3C a creare un apposito gruppo di lavoro (XML Working Group), composto da oltre ottanta esperti mondiali delle tecnologie SGML, ed una commissione (XML Editorial Review Board) deputata alla redazione delle specifiche. Dopo oltre un anno di lavoro, nel febbraio del 1998 le specifiche sono divenute una raccomandazione ufficiale, con il titolo Extensible Markup Language (XML) 1.0. Come di consueto tutti i materiali relativi al progetto, documenti ufficiali, informazioni ed aggiornamenti, sono pubblicati sul sito del consorzio all'indirizzo http://www.w3.org/XML. XML, come accennato sopra, è un sottoinsieme di SGML semplificato ed ottimizzato specificamente per applicazioni in ambiente World Wide Web. Dunque si tratta di un vero metalinguaggio, che permette di specificare, mediante DTD, molteplici classi di linguaggi di marcatura, e non una semplice applicazione SGML. Un documento XML "valido" deve essere associato ad una DTD che ne specifica la grammatica. Tuttavia, a differenza di SGML, XML ammette la distribuzione anche di documenti privi di DTD. Questi documenti, che sono definiti "ben formati", hanno una sintassi più rigida rispetto a quella di un documento SGML (e dunque anche di un documento HTML): ad esempio è sempre obbligatorio inserire i marcatori di chiusura negli elementi non vuoti. Per conseguire questo risultato alcune delle caratteristiche più esoteriche di SGML, che ne accrescono la complessità computazionale, sono state eliminate, e sono state introdotte delle novità nella sintassi. Ciò riduce notevolmente la complessità di implementazione di un browser XML, e facilita l'apprendimento del linguaggio (le specifiche constano di venticinque pagine contro le cinquecento dello standard ISO). La semplificazione tuttavia non comporta incompatibilità: un documento XML valido è sempre un documento SGML valido (naturalmente non vale l'inverso). La trasformazione di un'applicazione o di un documento SGML in uno XML è (nella maggior parte dei casi) una procedura automatica. La pubblicazione delle specifiche del linguaggio vero e proprio non ha esaurito l'attività del gruppo di lavoro nell'ambito del W3C. Infatti il progetto XML prevede anche la definizione di un apposito linguaggio per la costruzione di collegamenti ipertestuali, denominato Extensible Linking Language (XLL), e l'individuazione di uno o più linguaggi per fogli di stile che potranno essere associati ad un documento XML. I lavori relativi alla definizione di XLL, nel momento in cui stiamo scrivendo, sono ancora allo stato di bozza di lavoro, ma le linee fondamentali sono state determinate, ed introducono anche in questo settore importanti innovazioni. XLL si divide in due parti: XML Linking (XLink, http://www.w3.org/TR/WD-xlink), che specifica i costrutti per dichiarare i collegamenti ipertestuali di un documento. Esso prevede, oltre all'attuale sistema di riferimento, link con destinazioni e origini multiple; collegamenti diretti ed indiretti a porzioni di documenti; tipologie e ruoli semantici nei link; link che aprono intere finestre o che invece accedono a finestre popup; link conservati esternamente al documento a cui si applicano; il tutto senza far ricorso a tecniche di programmazione (con evidente guadagno nella portabilità del documento). XML Pointer (XPointer, http://www.w3.org/TR/WD-xptr) invece specifica un linguaggio con cui è possibile individuare specifiche porzioni all'interno di un documento, basato sulla sua struttura ad albero. Esso permetterà, ad esempio, di indicare un link al 'terzo paragrafo della seconda sezione del documento con URL tale', senza dover introdurre alcuna àncora esplicita. Gran parte dei costrutti XLL sono ereditati da un'altra applicazione standard SGML, HyTime073, ed inoltre accolgono concetti definiti nell'ambito della Text Encoding Initiative. Per quanto riguarda i fogli di stile da associare ad un documento XML, la situazione è molto più aperta. Con ogni probabilità il W3C indicherà più di un linguaggio da adoperare a tal fine. Senza dubbio, tra questi vi sarà CSS, in particolare nella versione 2. Tuttavia CSS non permette di sfruttare a fondo le potenzialità di XML. Per questo sarà affiancato da altri linguaggi più potenti. Un probabile candidato è Document Style Semantics and Specification Language (DSSSL). Anche questo è uno standard della famiglia SGML, approvato dalla International Standardization Organization, e ufficialmente rilasciato nel 1996 con la sigla ISO/IEC 10179:1996074. DSSSL è un linguaggio molto potente, sviluppato esplicitamente per operare, in modo indipendente dalla piattaforma, su documenti strutturati, ed in particolare su documenti in formato SGML. Dal punto di vista informatico si basa sulla sintassi del linguaggio di programmazione Scheme075. DSSSL si divide in due sottoinsiemi: un insieme di istruzioni che permettono di applicare processi di trasformazione ai documenti SGML (ad esempio dato un elenco bibliografico strutturato, una procedura DSSSL può generare diversi ordinamenti; o ancora, dato un gruppo di elementi strutturali, può generare un indice dei contenuti dinamico); e un insieme di istruzioni di formattazione, che possono essere utilizzate per la formattazione di documenti sia in ordine alla stampa professionale su carta, che alla presentazione su media elettronici. DSSSL permette di specificare procedure di formattazione condizionate dal contesto (ad esempio: il primo paragrafo dopo un titolo non ha rientro della prima linea di testo), e consente la costruzione di convertitori tra un formato ed un altro, operazioni impossibili in CSS. Tanta potenza, naturalmente, si paga con altrettanta complessità. La implementazione completa di un'applicazione DSSSL comporta notevoli problemi computazionali076. Inoltre, a differenza di CSS, DSSSL sarebbe assai difficilmente utilizzabile senza degli editor interattivi. Per facilitare la sua applicazione in ambienti di rete, un gruppo di specialisti, tra cui Jon Bosak e lo scomparso Yuri Rubinsky, ne ha ricavato un sottoinsieme che è destinato in modo specifico alla impaginazione di documenti elettronici. Le specifiche di questo sottoinsieme, denominato DSSSL Online (DSSSL-o), sono state pubblicate da Bosak nell'agosto del 1996. Il testo è disponibile su Web all'indirizzo http://occam.sjf.novell.com/docs/dsssl-o/do960816.htm, ma non è certamente di facile lettura. Ma il più probabile candidato ad assumere la funzione di linguaggio di fogli stile di riferimento per XML è Extensible Style Language (XSL). Nato da una proposta sviluppata da Microsoft, Inso ed Arbortext, con il contributo di James Clark ed Henry Thompson (A Proposal for XSL, disponibile come bozza di lavoro del W3C all'indirizzo http://www.w3.org/TR/NOTE-XSL.html), XSL eredita da DSSSL la semantica ed il modello computazionale, ma ne semplifica notevolmente la sintassi. Infatti gli stili vengono specificati direttamente in notazione XML piuttosto che in quella Scheme. Per il resto XSL offre quasi tutte le capacità del progenitore, oltre ad ereditare alcuni concetti di CSS. Questo ne fa uno strumento molto potente e flessibile. In ogni caso, per le operazioni di trasformazione più complesse, XSL prevede esplicitamente il ricorso a script espressi in linguaggio JavaScript, o meglio nella sua versione standard ECMAScript (definita dalla European Computer Manufacturers Association). Il lavoro su XSL in seno al W3C è appena iniziato, ma le specifiche della proposta iniziale sono molto avanzate e complete, e si prevede una sua rapida approvazione, considerando anche che la Microsoft sembra avere messo tutto il suo peso in questa impresa (come in generale in tutto il progetto XML). A dimostrazione di questo segnaliamo che la stessa Microsoft ha già sviluppato un software che traduce un documento XML con un relativo foglio di stile XSL in un documento in formato HTML (si veda all'indirizzo http://www.microsoft.com/xml/xsl/msxsl.htm). Ulteriori informazioni su questo linguaggio sono disponibili alle pagine dedicate ad XSL del sito W3C, all'indirizzo http://www.w3.org/Style/XSL/ L'insieme di specifiche del progetto XML, in conclusione, permette di creare, gestire e mantenere applicazioni ipermediali complesse sulla rete. La loro implementazione, pertanto, rappresenterebbe un vero e proprio salto evolutivo nell'architettura di World Wide Web. Naturalmente affinché questo salto si verifichi concretamente è necessario che l'industria delle tecnologie Internet, ed in particolare le due aziende leader del settore, lo accolga e lo supporti. Ma anche da questo punto di vista la situazione sembra assai positiva. La Microsoft ha partecipato in prima linea con un suo esponente, Jean Pauli, alla definizione di XML, ed già ha sviluppato due parser XML che si integrano con il suo browser e una serie di controlli ActiveX dedicati al trattamento di documenti XML (si veda http://www.microsoft.com/XML). Inoltre è stata la prima azienda a sviluppare una applicazione industriale del linguaggio, con il suo Channel Definition Format (CDF), il linguaggio su cui si basa il sistema di push integrato in Explorer. La stessa Microsoft, insieme a Marimba, ha sottoposto al W3C un'altra applicazione XML, Open Software Description (OSD), che permette di descrivere oggetti software scambiati in rete. OSD potrebbe aprire la strada alla manutenzione software distribuita. Anche Netscape, che inizialmente non aveva dimostrato molto interesse verso XML, sembra essere ritornata sui suoi passi. La versione 5 del suo browser contiene un modulo (battezzato in codice Aurora) che è in grado di interpretare i metadati in formato XML. Ma assai presto ci dobbiamo aspettare una piena implementazione di XML nei browser di entrambe le aziende. Oltre ai due giganti del software per Internet, XML ha attirato l'attenzione di moltissime aziende di software e di servizi on-line. Ad esempio grosse aspettative vengono riposte in questa tecnologia da tutto il settore legato al commercio elettronico. Per chi è interessato ad approfondire questi temi, segnaliamo un articolo in forma di FAQ intitolato 20 Questions on XML, pubblicato dal sito BUILDER.COM del gruppo C|NET (l'indirizzo è http://www.cnet.com/Content/Builder/Authoring/Xml20/index.html). Una buona introduzione, completa e non specialistica, ad una tecnologia che cambierà radicalmente il volto di World Wide Web. SoftQuad PanoramaIn attesa del rilascio di browser in grado di interpretare in modo nativo documenti XML, per coloro che vogliono pubblicare documenti strutturati su Web l'unica soluzione consiste nell'utilizzazione di appositi browser SGML, che possono eventualmente interagire con i tradizionali programmi di navigazione. Esistono due prodotti di questo tipo attualmente sul mercato: Panorama, prodotto dalla SoftQuad, una delle aziende leader nel settore SGML (http://www.softquad.com), e Multidoc PRO, realizzato dalla finlandese Citec (http://www.citec.fi). Panorama è disponibile in due versioni, una commerciale e l'altra gratuita. La versione commerciale, a sua volta, consiste di due moduli: Panorama Publisher, un browser stand-alone dotato di strumenti per la creazione di fogli di stile e reti ipertestuali tra più documenti; Panorama Viewer, un plug-in per Netscape ed Explorer che può solo visualizzare i documenti (di quest'ultimo viene distribuita una versione di prova, con alcune limitazioni funzionali, sul sito della SoftQuad). La versione gratuita è invece basata sulla release 1 del browser ed è reperibile dal sito Web della OCLC all'indirizzo http://www.oclc.org:5046/oclc/research/panorama. Multidoc Pro, invece, è disponibile solo in versione commerciale, ma chi è interessato può scaricarne una versione funzionante per tre settimane presso il sito della Citec. I due programmi sono assai simili dal punto di vista tecnico e funzionale (si basano infatti sullo stesso motore SGML sottostante). Abbiamo scelto di soffermarci su Panorama, dunque, vista la disponibilità di versioni gratuite. Cominciamo con l'installazione. Per quanto riguarda il modulo Viewer il processo è molto semplice: basta attivare il programma di autoinstallazione, e seguire le poche istruzioni da esso indicate. La versione stand-alone (sia quella commerciale che quella gratuita) richiede invece qualche cura. Il programma infatti può interagire come applicazione di supporto esterna con Netscape e Mosaic: in questo modo il documento SGML può contenere al suo interno dei link ad altri documenti remoti, esattamente come un normale file HTML. Tuttavia, per fare in modo che il browser Web avvii Panorama quando riceve un file SGML (e viceversa), occorre configurarlo appositamente. Con Netscape questo va fatto inserendo nella finestra di configurazione 'Navigator Applications' un nuovo tipo di file con le seguenti specifiche:
Una volta completata l'installazione è possibile usare Panorama collegandosi con uno dei siti che distribuiscono documenti in formato SGML. Un buon punto di partenza è rappresentato dalle pagine SGML on the Web, sul sito Web NCSA, all'indirizzo http://www.ncsa.uiuc.edu/SDG/Software/Mosaic/WebSGML.sgml. L'interfaccia utente di Panorama si differenzia da quella di un consueto browser Web. La finestra principale è divisa in due aree: la parte sinistra può contenere uno o più indici dei contenuti, o una rappresentazione ad albero della struttura del documento (per passare da una visualizzazione all'altra si usano i comandi 'Contents' e 'SGML Tree' nel menu 'Navigator'); la parte destra mostra il documento stesso. L'indice, detto navigatore, viene generato automaticamente dal programma usando i marcatori che identificano i titoli di vario livello presenti nel documento. Le voci dell'indice sono attive e permettono di saltare direttamente al capitolo o paragrafo selezionato. L'albero invece mostra i rapporti tra i vari elementi che costituiscono il documento. Anche in questo caso se si seleziona con il mouse un certo elemento, viene evidenziato il contenuto corrispondente nella finestra del testo.
Il testo, a sua volta, può essere visualizzato in due modalità:
Per passare da una modalità all'altra occorre selezionare o deselezionare il comando 'Show Tags' del menu 'Options'. La figura precedente mostra l'aspetto di un file SGML con i marcatori visibili. È così possibile vedere che tipo di codifica è stata assegnata ad ogni segmento del testo, ed usufruire delle informazioni strutturali veicolate dalla codifica. Le parti di testo sottolineate (e colorate in blu, sullo schermo) sono dei link attivi. La figura che segue invece mostra un documento formattato (per la precisione si tratta di una versione dei Canti Orfici di Dino Campana077) ed il relativo sommario. In questo caso abbiamo usato Panorama Viewer come plug-in di Netscape. La finestra di Panorama, con la relativa barra dei pulsanti, è inserita in quella del browser; il menu dei comandi, di tipo pop-up, viene invece visualizzato mediante il tasto destro del mouse.
L'impaginazione e la formattazione del testo avvengono attraverso l'associazione di un foglio di stile al file del documento. I fogli di stile di Panorama usano una sintassi in formato proprietario (ma la traduzione 'in' e 'da' DSSSL o XSL non è difficile). Ogni tipo di documento (DTD in terminologia SGML) può avere più fogli di stile associati. Se Panorama riceve un file per il quale ha uno o più fogli di stile, allora lo applica, altrimenti ne richiede uno al server remoto. Grazie alla codifica SGML, Panorama è dotato di strumenti di ricerca interna al file notevolmente più avanzati rispetto ai normali browser HTML. È possibile cercare le occorrenze di un dato elemento, oppure le occorrenze di una certa stringa di testo contenute solo all'interno di determinati elementi. La sintassi per effettuare le ricerche prevede l'uso di operatori logici (AND, OR) e di operatori di relazione (IN, CONT). Ad esempio, se vogliamo cercare tutte le occorrenze di 'casa' solo nei paragrafi del corpo del testo, occorre prima attivare la finestra di dialogo con il comando 'Search' nel menu 'Edit', e poi digitare quanto segue: casa in <P> Come appare evidente, le potenzialità di questo programma sono veramente notevoli. Non possiamo in questa sede approfondire l'analisi di tutte le funzionalità, che del resto sono disponibili solo nella versione commerciale, anche perché sarebbe necessaria una conoscenza più approfondita delle caratteristiche dello SGML. Ma crediamo che questa veloce ricognizione permetta di percepire come la diffusione di tecnologie SGML e XML su Web possa costituire un vero e proprio punto di svolta per l'evoluzione della editoria elettronica on-line. PICS e il controllo dei contenuti su World Wide WebUno degli aspetti di Internet che sembra maggiormente appassionare la pubblicistica non specializzata è il controllo dei contenuti veicolati attraverso le pagine Web. Il problema che più spesso viene evocato a questo riguardo è la facilità con cui soggetti a rischio (bambini o comunque minori) possono accedere a risorse informative che potrebbero arrecare turbamento, come siti contenenti materiali pornografici o violenti. L'incidenza percentuale di questi materiali rispetto al totale delle risorse disponibili su Web è assai bassa. Tuttavia è innegabile che molti siti pornografici siano facilmente raggiungibili, e che nella maggior parte dei casi i contenuti di tali siti siano decisamente squallidi e potenzialmente dannosi per i minori. La soluzione al problema proposta con maggiore frequenza è l'introduzione di sistemi di controllo di tipo legislativo sui contenuti della rete. Indipendentemente dalla posizione ideologica che si può assumere nei confronti della censura - che gli autori di questo manuale comunque non approvano - l'idea di un controllo autoritario sui contenuti della rete si scontra con la sua struttura tecnica, che permette di superare qualsiasi sistema di controllo o impedimento esterno. Ad esempio non è facile bloccare l'arrivo di informazioni da paesi che non applicano restrizioni legali, a meno di impedire del tutto l'accesso alla rete (come avviene di norma in paesi controllati da regimi autoritari, quali Cina e Singapore). Una soluzione alternativa alla censura delle fonti è l'uso di sistemi di filtri che agiscano dalla parte dell'utente finale, impedendo l'accesso a contenuti sconvenienti da parte di soggetti non autorizzati. Su questo principio si basa la Platform for Internet Content Selection (PICS), sviluppata dal W3 Consortium, e rilasciata come recommendation alla fine del 1996. Sul sito del W3C, all'indirizzo http://www.w3.org/PICS/ sono disponibili le specifiche ufficiali e altre informazioni su questa tecnologia. PICS è un sistema che permette di associare etichette alle pagine Web078. Ogni etichetta, mediante una sintassi formalizzata, fornisce una valutazione (rating) del contenuto della pagina in base ad una determinata classificazione, ed è univocamente associata alla pagina per la quale è stata rilasciata079. Le etichette PICS possono essere usate da apposite applicazioni che filtrano le informazioni in arrivo dalla rete. Tali applicazioni sono in grado di confrontare l'etichetta del documento in arrivo con un insieme di etichette di riferimento indicate dall'utente: se la valutazione risponde ai criteri prescelti, la ricezione della pagina viene autorizzata; in caso contrario l'accesso alla pagina viene impedito. L'aspetto positivo di questa tecnologia è che non esiste un'autorità centrale che censura o approva il contenuto di un sito su World Wide Web. Il sistema si basa interamente sull'autocontrollo e sulla responsabilizzazione dei gestori di siti, degli autori di pagine Web e degli utenti. La classificazione, infatti, va richiesta ad agenzie indipendenti, direttamente dai responsabili dei singoli siti. Un importante servizio di rating è quello del Recreational Software Advisory Council (RSAC). Si tratta di un osservatorio indipendente formato da un gruppo di aziende ed organizzazioni, tra cui lo stesso W3C. Per avere informazioni, o richiedere una valutazione, si può visitare il sito Web http://www.rsac.org. Allo stato attuale, i software compatibili con le specifiche PICS non sono moltissimi. In alcuni casi si tratta di programmi che si interpongono tra il client Web e il pacchetto di accesso alla rete. In altri casi invece l'architettura PICS è integrata nel browser. Tra i più diffusi ricordiamo Microsoft Explorer, che ha adottato la tecnologia PICS a partire dalla versione 3. L'amministrazione delle restrizioni di accesso con il browser Microsoft è alquanto complicata, e si effettua mediante la scheda 'Contenuto' nella finestra delle 'Opzioni'. Il pulsante 'Attiva' mette in funzione il sistema di controllo; il pulsante 'Impostazioni' invece ne consente la configurazione. Sia l'attivazione che l'impostazione delle restrizioni sono protette da una password.
Quando la restrizione è attiva il browser impedisce l'accesso a ogni pagina priva di etichette PICS. Le pagine etichettate invece vengono confrontate con il sistema di classificazione del servizio RSAC. Come vedete nella figura precedente questo sistema consente di configurare il browser in modo da impedire l'accesso a siti con vari livelli di contenuti pornografici o violenti o volgari. È comunque possibile aggiungere altri schemi di classificazione. Normalmente le etichette PICS sono inserite all'interno di un file HTML. Tuttavia è possibile anche usare un servizio di etichettatura (label bureau) dinamico, che invia etichette su richiesta. Questo facilita la gestione del sistema di classificazione e aumenta le garanzie rispetto a possibili manomissioni delle etichette - rese comunque difficili dalla presenza di firme digitali cifrate. RCF e i metadati per le risorse on-lineSu Internet esistono moltissimi tipi di risorse informative, che possono essere considerate sotto molteplici punti di vista: paternità intellettuale, affidabilità, qualità, origine, tipologia dei contenuti. Con il termine metadati (dati sui dati) si indica appunto l'insieme di dati che descrivono una o più risorse informative sotto un certo rispetto. I metadati hanno una funzione molto importante nell'individuazione, nel reperimento e nel trattamento delle informazioni. Un classico esempio è costituito dai riferimenti bibliografici di una pubblicazione (titolo, autore, editore, ecc.). Essi in primo luogo identificano una pubblicazione, ed infatti sono collocati sulla copertina e sul frontespizio di un libro; poi costituiscono il contenuto delle schede nei cataloghi bibliotecari, e dunque sono necessari al reperimento del libro nel 'sistema informativo' biblioteca. Questo esempio ci permette di valutare l'importanza di individuare un sistema semplice ed efficiente per associare metadati alle informazioni on-line. Attualmente su Internet esistono vari sistemi per effettuare questa associazione, a seconda dello scopo per cui i metadati vengono utilizzati. Le etichette PICS, che abbiamo visto sopra, sono un esempio di metadati utilizzati per assegnare valutazioni al contenuto dei documenti su Web. Un altro tipo di metadati per i documenti elettronici riguarda la certificazione di autenticità e di aderenza all'originale di un documento distribuito sulla rete. A questo fine è stato sviluppato un sistema di identificazione delle risorse on-line basato su certificati digitali simili alle etichette PICS. Tali certificati permettono di individuare dei siti, dei documenti o dei software e di avere la garanzia che non abbiano subito manipolazioni e modifiche non autorizzate dall'autore. Anche le intestazioni HTTP ed i mime type sono metadati associati a pagine web. Ci sono poi i vari formati di record catalografici come Unimarc. Ognuno di questi sistemi svolge un importante ruolo per il corretto ed efficiente funzionamento dello scambio di informazioni e risorse sulla rete. L'importanza dei metadati ha spinto il W3C a creare un apposito gruppo di lavoro su questo tema. L'obiettivo è la definizione di un sistema per la specificazione dei metadati associati alle risorse informative su Internet che unifichi tutte le tecnologie adottate finora (record catalografici MARC, PICS, certificati, firme digitali, intestazioni HTTP). Il risultato di questa attività è stato il Resource Description Framework (RDF). La prima versione preliminare delle specifiche, dal titolo Resource Description Framework (RDF) Model and Syntax, è stata pubblicata nel febbraio 1998 (è disponibile, insieme ad altre informazioni su RDF e tecnologie correlate all'indirizzo http://www.w3.org/Metadata . RDF è un metalinguaggio basato sulla sintassi XML. Esso permette sia di associare informazioni a dati, documenti e applicazioni informatiche, sia di definire lo schema di classificazione utilizzato, ovvero il vocabolario ed il significato di tali informazioni. Di conseguenza può essere utilizzato per un vasto spettro di applicazioni dei metadati. Questa tecnologia ha attirato subito un notevole interesse: ad esempio la versione 5 del browser Netscape include un modulo (Aurora) che si basa su RDF per effettuare la gestione integrata delle risorse locali e remote. E nell'ambito dello stesso W3C si è deciso che la prossima versione delle etichette PICS, la numero 2, si baserà sulla sintassi e semantica di RDF. Uniform Resource NameUne delle esperienze più comuni tra gli utilizzatori abituali di World Wide Web è l'apparizione del messaggio 'HTTP/1.0: 404 Oggetto non trovato', quando si cerca di accedere a un documento attraverso un link ipertestuale o mediante la sua URL. Che cosa significa? Semplicemente che il file corrispondente non si trova più nella posizione indicata dal suo indirizzo. Che fine ha fatto? Può essere stato spostato, cancellato, rinominato. Il fatto è che i riferimenti in possesso dell'utente non gli permettono più di accedere al suo contenuto. Un'esperienza simmetrica, invece, è la scoperta che il contenuto di un certo documento, di cui magari si era inserita la URL nell'elenco dei bookmark, è cambiato. Anche in questo caso la causa del problema è molte semplice: al file 'xyz.hml' è stato cambiato il contenuto, mantenendogli lo stesso nome. Alla radice di queste spiacevoli esperienze c'è uno dei limiti più importanti della attuale architettura di World Wide Web: il sistema di assegnazione dei nomi alle risorse informative sulla rete, e il modo in cui queste vengono localizzate. Come sappiamo, attualmente queste due funzioni sono svolte entrambe dalla URL di un documento. Il problema fondamentale è che la Uniform Resource Locator fornisce un ottimo schema di indirizzamento (ovvero indica con molta efficienza la posizione sulla rete di un file), ma un pessimo schema di assegnazione di nomi. L'unificazione delle funzioni di indirizzamento e di identificazione delle risorse in una unica tecnologia si rivela un sistema inadeguato in molti altri settori. A titolo di esempio: introduce grossi problemi nello sviluppo di applicazioni di information retrieval sulla rete; rende molto difficile la citazione, il riferimento e la catalogazione bibliografica dei documenti presenti in rete; non permette lo sviluppo di sistemi di versioning, ovvero sistemi che tengano traccia dell'evoluzione dinamica di un documento, conservandone le versioni successive; complica la gestione del mirroring, ovvero la creazione e l'allineamento di molteplici esemplari di un medesimo documento. Lo sviluppo di un efficiente sistema di distribuzione dell'informazione su rete geografica richiede dunque un potente ed affidabile sistema di identificazione delle risorse informative. Per rispondere a questa esigenza, vari enti ed organizzazioni che si occupano dello sviluppo degli standard su Internet hanno proposto una architettura ad hoc denominata Uniform Resource Name (URN). In realtà con questa sigla vengono indicate una serie di tecnologie, ancora in fase sperimentale, nate in ambiti diversi e caratterizzate da diversi approcci e finalità immediate. Nell'ottobre del 1995, in una conferenza tenuta alla University of Tennessee, i vari gruppi interessati hanno definito un sistema di specifiche unitarie. La convergenza prevede la compatibilità tra le varie implementazioni, pur garantendo la coesistenza di ognuna di esse. Dal 1996 la IETF, che si occupa della definizione degli standard per Internet, ha creato un gruppo di lavoro sugli URN. Chi è interessato ad approfondire gli aspetti tecnici e gli sviluppi in corso può consultare le pagine Web di questa commissione, il cui indirizzo è http://www.ietf.org/html.charters/urn-charter.html; molte informazioni si trovano anche nella pagina Web curata da Daniel LaLiberte sul server del NCSA (http://union.ncsa.uiuc.edu/HyperNews/get/www/URNs.html). In questa sede ci limiteremo ad esporre le caratteristiche generali dell'architettura URN. Un URN è un identificatore che può essere associato ad ogni risorsa disponibile su Internet, e che dovrebbe essere utilizzato in tutti i contesti che attualmente fanno uso delle URL. In generale, esso gode delle seguenti caratteristiche:
Per risorsa si intende il 'contenuto intellettuale' di un documento (testo, immagine, animazione, software, ecc.), o una sua particolare presentazione: ad esempio, ogni versione di un documento in un dato formato può avere un URN. Ciascuna risorsa individuata da un URN può essere disponibile in molteplici copie, distribuite su diversi luoghi della rete: conseguentemente ad ogni URN possono corrispondere molteplici URL. Il processo di determinazione delle URL di una risorsa a partire dalla sua URN viene definito 'risoluzione'. I nomi vengono assegnati da una serie di autorità indipendenti, dette naming authority, che garantiscono la loro unicità e permanenza. A ogni naming authority corrisponde almeno un Name Resolution Service, ovvero un sistema software che effettua la risoluzione del nome. I problemi che si cerca di risolvere attraverso l'introduzione degli URN sono molto rilevanti, anche se, allo stato attuale, non esiste nessuna implementazione pubblica dell'architettura URN. I processi di standardizzazione, come al solito, sono molto lenti, specialmente in un ambiente decentralizzato come Internet. Il consenso necessario alla introduzione di una tecnologia completamente nuova richiede il concorso di molti soggetti, e non di rado impone agli attori commerciali notevoli investimenti nella progettazione o modifica dei prodotti software. L'introduzione delle URN è, comunque, tra gli obiettivi nell'agenda del progetto Internet II, che coinvolge alcune grandi università statunitensi nella progettazione della rete del prossimo futuro. Nel frattempo, è stato sviluppato un sistema che offre un'ottima approssimazione delle funzionalità di identificazione univoca dei documenti sulla rete. Si tratta delle Persistent URLs (PURLs), non casualmente messe a punto nell'ambito bibliotecario. Il sistema infatti nasce come progetto di ricerca sponsorizzato dalla OCLC, consorzio internazionale di biblioteche, di cui torneremo a parlare. Il sistema PURLs, come evidenzia il nome, si basa sull'attuale meccanismo di indirizzamento dei documenti su Web e dunque non richiede alcuna modifica negli attuali browser. In effetti una PURL è, sia dal punto di vista funzionale sia da quello sintattico, una normale URL, e può essere utilizzata negli stessi contesti (all'interno dei file HTML, nelle finestre dei browser, ecc). Questa ad esempio, rimanda a un documento introduttivo sul tema: http://purl.oclc.org/OCLC/PURL/SUMMARY. Invece che puntare direttamente verso la risorsa indirizzata, una PURL punta a uno speciale server che ospita un sistema di risoluzione (PURL resolution service): nell'esempio il servizio ha indirizzo 'purl.cloc.org'. Quest'ultimo, in base al nome della risorsa - nell'esempio /OCLC/PURL/SUMMARY/ - traduce la PURL in una vera e propria URL, e reindirizza il client verso questo indirizzo. Il meccanismo si basa su una normale transazione HTTP, detta redirezione. L'effettiva localizzazione della risorsa viene determinata dinamicamente dal PURL Service. Se un documento registrato presso un sistema di risoluzione PURL viene spostato (o se cambia il nome del file corrispondente), è sufficiente cambiare l'associazione PURL-URL sul sistema. La PURL rimane immutata e dunque tutti i riferimenti e i link da qualsiasi parte della rete verso quel documento continuano a funzionare perfettamente. L'aggiornamento delle relazioni deve essere effettuato esplicitamente dai responsabili della manutenzione del PURL Service. È comunque possibile eseguire questa operazione anche da computer remoti, e assegnare permessi di manutenzione per particolari gerarchie di nomi. Il primo PURL Resolution Service è stato attivato dalla OCLC dal gennaio del 1996, e si è dimostrato molto efficiente. Chi desidera vederlo in funzione può indirizzare il suo browser all'indirizzo http://purl.oclc.org. Naturalmente l'efficacia effettiva di questa tecnologia richiede la disseminazione attraverso la rete del maggior numero possibile di PURL server. Per facilitarne la diffusione l'OCLC ha deciso di distribuire gratuitamente il relativo software, che è disponibile sul sito Web indicato sopra. Molte istituzioni, specialmente nell'ambio bibliotecario ed accademico, hanno dimostrato grande interesse, e hanno iniziato a sviluppare altri servizi di risoluzione PURL. Il sistema PURL costituisce un importante passo intermedio verso l'architettura URN. Inoltre, è ormai chiaro che la sintassi PURL sarà facilmente traducibile in forma di URN, trasformandola in uno schema di indirizzamento. Dunque coloro che oggi hanno adottato la tecnologia sviluppata dalla OCLC saranno in grado di migrare verso la tecnologia URN senza problemi. Nel frattempo le PURL, appoggiandosi sull'attuale sistema di indirizzamento utilizzato su Internet, hanno il chiaro vantaggio di essere già disponibili, di funzionare perfettamente e risolvere la sindrome da 'error 404'. Nati per la rete: i network computerTerminiamo il nostro viaggio attraverso le nuove frontiere della rete con un tema che sta destando molto interesse nella comunità degli utenti e dei produttori di tecnologie Internet: il network computing. Nel paragrafo dedicato a Java abbiamo visto come le caratteristiche innovative di questo linguaggio di programmazione abbiano attirato una grande attenzione attorno a questa tecnologia. Tale attenzione è testimoniata dalla rapidità con la quale Java è diventato uno standard di fatto, adottato da tutto il mondo dell'informatica che ruota attorno ad Internet: oggi non esiste azienda informatica interessata alla rete che non abbia inserito Java nei suoi piani strategici, in un modo o nell'altro. Ma secondo alcuni analisti la diffusione di Java, in sinergia con lo sviluppo della rete, potrà avere conseguenze ancora più profonde. Ci troveremmo di fronte ad una ennesima rivoluzione nella storia dell'informatica: il passaggio dall'era del personal computing a quella del network computing. Fino ai primi anni ottanta la storia dell'informatica è stata una storia di dinosauri tecnologici. Gli elaboratori informatici erano delle macchine enormi, costose e difficili da utilizzare. Solo i militari, alcune grandi aziende pubbliche e private, o le grandi università potevano permettersi gli investimenti necessari per acquistare e utilizzare questi esosi e complessi 'ordigni' computazionali. La svolta epocale inizia in un garage: quello in cui Steve Wozniack e Steve Jobs, due giovani col pallino dell'informatica, costruirono, usando materiali di scarto, il primo vero personal: e lo chiamarono Apple. L'introduzione dei personal computer fu l'inizio vero e proprio della rivoluzione digitale. I computer uscirono dai centri di calcolo, e arrivarono prima sulle scrivanie degli uffici e poi nelle case, trasformando il modo di lavorare, di studiare, di giocare, di vivere. Nel giro di venti anni la potenza dei personal computer è cresciuta con ritmi esponenziali: oggi un desktop casalingo supera la potenza di calcolo dei mainframe di venti anni fa, che erano grandi come un appartamento. Questa crescita nella potenza di calcolo è legata strettamente alla crescita di complessità e potenzialità dei sistemi operativi e dei programmi applicativi, sempre più affamati di risorse, di memoria, di velocità. Un circolo infernale che ci costringe a rinnovare le apparecchiature informatiche ogni due o tre anni. L'idea del network computing, affermano i suoi sostenitori, potrebbe invertire proprio questa tendenza. Piuttosto che avere sul proprio disco rigido sistemi operativi giganteschi e molti programmi complessi, ci si potrebbe collegare a potenti server in rete: questi ultimi, oltre ai dati, potrebbero offrire i moduli software di volta in volta necessari, gran parte dei quali realizzati in Java. L'utente farebbe uso di queste 'applicazioni distribuite' solo per il tempo necessario, e pagherebbe il tempo di utilizzo. Naturalmente se le applicazioni e i programmi vengono distribuiti sulla rete anziché risiedere permanentemente sul disco fisso dell'utente, il computer di quest'ultimo potrebbe essere notevolmente alleggerito. Sarebbe sufficiente un semplice terminale intelligente, dotato di interfaccia per la connessione in rete ma senza sistema operativo. O meglio, con un sistema operativo capace di eseguire programmi Java in modo nativo, affiancato da un potente browser: un cosiddetto network computer. Infatti gran parte delle funzioni di un vero sistema operativo, come abbiamo già visto, risiederebbero sulla rete. I costi di un network computer sarebbero molto contenuti, e ciò che più conta, i costi per l'acquisto del software verrebbero drasticamente abbattuti. Ma c'è anche chi rileva i lati negativi di una 'rivoluzione' di questo tipo, e i motivi per i quali la sostituzione dei personal computer con i 'computer di rete' potrebbe risultare tutt'altro che desiderabile. Infatti il personal computer è uno strumento polifunzionale, che in linea di principio permette a chiunque di avere un rapporto attivo con le tecnologie informatiche, e di utilizzare gli strumenti che desidera in modo creativo e personalizzato. Non solo: il computer è anche un potente strumento cognitivo, grazie al quale ognuno dispone, in teoria, dei mezzi adeguati per produrre e manipolare informazioni complesse - in fondo, è innegabile che lo stesso fenomeno Internet sia un prodotto indiretto dell'era del personal computer. Il network computing invece tende a centralizzare i modelli di calcolo in grandi supercomputer, i quali determinano il tipo di applicazioni che ogni utente può usare, e il modo di usarle. C'è insomma il rischio di vedere una diminuzione della libertà e della creatività applicativa. Il dibattito sulle questioni di principio può risultare senza dubbio interessante. Ma nella realtà, il conflitto tra queste due impostazioni è fortemente determinato dagli enormi interessi in gioco nel mercato dell'informatica. Infatti lo spostamento di paradigma verso le tecnologie del network computing metterebbe in discussione l'attuale predominio delle due imprese leader nel settore dei sistemi operativi e dei microprocessori, rispettivamente Microsoft ed Intel. Una simile prospettiva ha naturalmente attirato l'attenzione del fronte 'anti-Wintel' (così si è soliti appellare il cartello di fatto tra i due colossi dell'informatica), a partire dalla azienda che ha sviluppato Java, la Sun Microsystem, per finire con nomi del calibro IBM e Apple. A riprova di questa forte preponderanza degli interessi economici nel dibattito, c'è il recente cambio di rotta che i maggiori esponenti del 'fronte network computer', Sun in testa, hanno introdotto nei piani di sviluppo di questa tecnologia. Uno sviluppo che, se ci viene perdonato un momento di indulgenza autoreferenziale, segue esattamente le linee che avevamo previsto sin dalla prima versione di questo libro, Internet '96. Abbandonato ben presto l'orizzonte del mercato consumer, il cliente di riferimento è stato individuato nel settore aziendale. Infatti lo stato attuale delle infrastrutture della rete Internet non consentirebbe un'effettiva applicazione dei principi del network computing nella fascia dell'utenza domestica. Invece il fenomeno Intranet/Extranet ha determinato la diffusione delle tecnologie Internet nelle reti aziendali, sia per le connessioni a grande distanza, sia per reti locali. È in casi come questi che si trarranno i massimi benefici dal network computing: riduzione dei costi hardware, abbattimento dei costi software iniziali e, soprattutto, crollo dei costi di gestione e di innovazione del software; se sul piatto della bilancia si mette anche un maggiore controllo sui processi produttivi, è facile capire perché il network computer si rivolga al momento soprattutto alle aziende. I primi prototipi di network computer aziendali sono stati presentati alla fine del 1996. Il più interessante, anche dal punto di vista del design, è il modello della Sun, battezzato programmaticamente Javastation, basato su un processore di tipo RISC in grado di eseguire codice Java in modo nativo. Anche IBM ha realizzato un modello di network computer, basato su un processore PowerPC, ma controllato da una versione ridotta di AIX, lo Unix di casa Big Blue. Qualche esempio di Network Computer dedicato al mercato casalingo comincia comunque ad apparire. Fra le uscite dell'ultimo anno, merita di essere ricordato il box WebTV, che rende possibile la navigazione Internet e l'esecuzione di programmi Java utilizzando un comune televisore come strumento di visualizzazione, e il telefono Web della Alcatel, vincitore di un premio per l'innovazione tecnologica al CEBIT di Hannover del marzo 1998, che integra un touch screen VGA e la capacità di navigare in rete ed eseguire programmi Java. Occorrerà comunque attendere almeno un anno o due per verificare le possibilità di effettivo successo commerciale di strumenti di questo tipo. Insomma, a breve termine il nostro personal computer non sarà sostituito dai network computer. D'altra parte, la disponibilità di risorse di memoria e di calcolo sempre più veloci, potenti ed economiche rende difficile ipotizzare una ritorno tout-court all'era dei 'terminali stupidi'. Ma questo non vuol dire che il personal computer, potente e flessibile, rimarrà lo stesso. Al contrario, l'ambiente di lavoro del computer locale avrà una sempre maggiore integrazione con l'ambiente informativo globale ed aperto di Internet. Le applicazioni locali interagiranno sempre di più con le applicazioni distribuite. La stessa Microsoft si è indirizzata fortemente in questa direzione, integrando capacità di networking direttamente nel cuore dei suoi nuovi sistemi operativi (e in particolare di Windows 98) e delle nuove applicazioni (come, ad esempio, Office 97, l'ultima versione della suite di produttività personale). Quello che è certo è che, ormai, nessuno dei protagonisti dell'arena informatica e telematica può evitare di fare i conti con Internet, e con tutte le tecnologie correlate alla rete. Nuove frontiere |