Vai alla home page ufficiale di 'Internet, manuale per l'uso della rete'

Indice Premessa
Introduzione La telematica
Come funziona Il collegamento
Come si naviga E-mail
Newsgroup FTP
Telnet Gopher
WWW Tempo reale
Nuove frontiere La ricerca
Risorse Il sociale
Mercato globale HTML
Glossario Bibliografia

...torna alla parte 1 Nuove frontiere parte 2 di 2

14 Nuove frontiere

  • Introduzione
  • Informazione a domicilio
  • Alcuni programmi client
  • PointCast
  • Explorer, Netscape e l'information push
  • Altri programmi client
  • La realtà virtuale in rete
  • VRML
  • I client 3D
  • Live 3D
  • Cosmo Player
  • Nuovi standard, nuove sigle
  • Questioni di stile
  • SGML e l'editoria elettronica in rete
  • SoftQuad Panorama
  • XML
  • I fogli di stile
  • CSS
  • DSSSL
  • PICS e il controllo dei contenuti su World Wide Web
  • Uniform Resource Name
  • Nati per la rete: i network computer

  • Nuovi standard, nuove sigle

    L'evoluzione di Internet procede incessantemente. La crescente richiesta di nuove potenzialità e applicazioni trasforma la rete in un continuo work in progress, un laboratorio dove si sperimentano tecnologie e soluzioni innovative.

    Se da una parte questo processo produce sviluppi disordinati, spesso determinati da singole aziende che cercano di trarre il massimo profitto dal fenomeno Internet, dall'altra le organizzazioni indipendenti che gestiscono l'evoluzione della rete svolgono una continua attività di ricerca e di definizione di nuovi standard.

    L'organizzazione ufficiale deputata allo sviluppo degli standard per la rete è la IETF (Internet Engineering Task Force), il cui lavoro tuttavia procede con molta prudenza. I documenti prodotti da questo gruppo sono denominati Request for Comment (RFC). Il nome fu scelto sin dalle origini della rete, e indica la natura fondamentalmente consultiva del processo di standardizzazione su Internet.

    Molto più dinamico invece è il World Wide Web Consortium (W3C), che raccoglie le maggiori aziende e centri di ricerca interessati allo sviluppo delle tecnologie di rete. Il lavoro del W3C si articola per commissioni e gruppi di lavoro, che producono bozze tecniche di lavoro (working drafts). Ogni proposta viene poi sottoposta ad un processo di verifica e di revisione, finché non viene approvata dal consiglio generale e diventa una 'raccomandazione' (recommendation), alla quale è possibile far riferimento per sviluppare software. In questi ultimi anni il W3C ha prodotto una serie di specifiche divenute, o in procinto di divenire, standard ufficiali su Internet. Tutti materiali prodotti dal W3C sono di pubblico dominio, e vengono pubblicati sul sito Web del consorzio.

    Naturalmente la maggiore quantità di innovazioni riguardano il settore di punta della rete, World Wide Web. I settori in cui si è concentrata l'attenzione sono sostanzialmente:

    • il potenziamento e la qualificazione delle funzionalità editoriali su Web
    • la certificazione ed il controllo del contenuto dei siti
    • l'individuazione ed il reperimento di documenti e risorse su Internet.

    Nei prossimi paragrafi discuteremo una parte di queste innovazioni, destinate a cambiare il volto di Web, per l'ennesima volta, nei prossimi mesi o anni.

    Naturalmente si tratta di semplici introduzioni, che non possono esaurire i temi trattati, anche perché in molti casi siamo ancora in presenza di semplici proposte, sottoposte a continue rielaborazioni e raffinamenti. Chi è interessato ad approfondire queste tematiche può comunque visitare il sito del W3C, il cui indirizzo è http://www.w3.org, e quello della IETF, alla URL http://www.ietf.org; in entrambi i siti è possibile reperire aggiornamenti costanti, documentazione e rapporti sulla attività di standardizzazione.

     
      Questioni di stile

    World Wide Web è stato concepito come un sistema per la distribuzione di semplici documenti tecnici su rete geografica. La comunità di utenti a cui era inizialmente destinata era molto ristretta, fortemente legata al mondo della ricerca scientifica, non necessariamente in possesso di particolari competenze informatiche, e scarsamente preoccupata degli aspetti qualitativi nella presentazione dell'informazione. Per questa ragione nello sviluppo delle tecnologie di base sono state perseguite la semplicità di uso e di implementazione.

    Queste caratteristiche hanno notevolmente contribuito al successo di Web. Ma con il successo lo spettro dei fornitori di informazione si è allargato: World Wide Web e diventata un vero e proprio sistema di editoria elettronica online. Ovviamente l'espansione ha suscitato esigenze ed aspettative che non erano previste nel progetto originale, stimolando una serie di revisioni e di innovazioni degli standard tecnologici originari. L'aspetto che ha suscitato maggiore interesse è l'accrescimento della capacità di gestione e controllo dei documenti multimediali e dei testi elettronici su Web, e il potenziamento del linguaggio utilizzato per la loro creazione.

    Come sappiamo, allo stato attuale il formato usato nella realizzazione di pagine Web è il linguaggio HTML, di cui esistono diverse versioni:

    • uno standard ufficiale definitivo, HTML 2, ormai invecchiato, e assolutamente limitato
    • un nuovo standard, HTML 3.2, rilasciato dal W3C ma non dalla IETF, scaturito dal lunghissimo lavoro di definizione della versione 3, che non ha mai visto ufficialmente la luce
    • una serie di 'dialetti' con estensioni proposte delle varie case produttrici di browser.

    Gran parte delle estensioni proprietarie hanno lo scopo di ottenere effetti grafici ed editoriali spettacolari. L'obiettivo che spinge aziende come Netscape e Microsoft ad introdurre innovazioni è la conquista di una posizione di monopolio nel mercato, dato che le nuove caratteristiche sono, almeno in prima istanza, riconosciute e interpretate correttamente solo dai rispettivi browser. A tutto ciò si aggiunge la recente introduzione dei plug-in e dei controlli ActiveX, che permettono di distribuire documenti in formati proprietari, contribuendo all'incremento della confusione.

    Questa corsa all'ultima innovazione, dunque, se molto spesso migliora l'aspetto e la fruibilità delle pagine pubblicate su Web, ha degli effetti devastanti sul piano della portabilità dei documenti. Per il momento i dialetti HTML interpretati dai browser più diffusi coincidono quasi del tutto, ma questo non è stato vero in passato, e non è detto che resti vero in futuro. Insomma, il rischio di vedere nascere dei confini nell'universo aperto della rete è incombente: qualcuno ha addirittura parlato di una vera e propria balcanizzazione di World Wide Web. La scelta di introdurre nuovi comandi per ogni effetto grafico che si vuole ottenere, peraltro, introduce inconsistenze formali nella definizione del linguaggio HTML, e riduce la sua utilità in applicazioni complesse come ad esempio l'aggiornamento di database tramite Web, o i sistemi di information retrieval.

    Per agevolare uno sviluppo 'ecologico' di World Wide Web, ed evitare che le tensioni indotte dal mercato limitino la universalità di accesso all'informazione che aveva caratterizzato il progetto iniziale, il W3 Consortium promuove, come si è già accennato, una importante attività di innovazione e di standardizzazione. Nel settore specifico che stiamo trattando in questo paragrafo, sono emerse due importanti proposte che potrebbero cambiare il volto della rete.

    La prima prospetta la generalizzazione del supporto allo Standard Generalized Markup Language (SGML) su World Wide Web. L'idea è molto semplice: HTML è una particolare applicazione SGML, che risponde ad alcune esigenze ma non a tutte; perché non modificare i protocolli Web per consentire di usare anche altre applicazioni SGML, potenziando le capacità di interpretazione degli attuali browser? Questo garantirebbe ai fornitori di contenuti un notevole potere di controllo sulla qualità e sulla struttura delle informazioni pubblicate, oltre ai molteplici vantaggi impliciti nella tecnologia SGML. La seconda innovazione, peraltro strettamente collegata alla prima, riguarda l'introduzione dei fogli di stile per gestire la presentazione grafica delle pagine Web.

    SGML e l'editoria elettronica in rete

    Lo Standard Generalized Markup Language, ideato e sviluppato da Charles Goldfarb, è un sistema per la creazione e l'interscambio di documenti elettronici adottato dalla International Standardization Organization (ISO). Il rilascio ufficiale dello standard risale al 1986, ma solo ora questa potente tecnologia comincia a guadagnare consensi, e ad essere utilizzata in un vasto spettro di applicazioni concrete.

    L'idea alla base di SGML è quella dei linguaggi di markup, che abbiamo già visto nel paragrafo introduttivo su HTML. Si possono distinguere due tipologie di linguaggi di markup:

    • markup procedurale
    • markup analitico

    Il primo tipo (i cui testimoni più illustri sono lo Script, il TROFF, il TEX) consiste di istruzioni operative che indicano la struttura tipografica della pagina (il lay-out), le spaziature, l'interlineatura, i caratteri usati. Questo tipo di marcatura è detta procedurale in quanto indica ad un programma le procedure di trattamento cui deve sottoporre la sequenza di caratteri al momento della stampa. Il markup dichiarativo invece permette di descrivere la struttura astratta di un testo. SGML rientra in questa seconda classe.

    Per la precisione, più che un linguaggio, lo SGML è un metalinguaggio. Esso prescrive precise regole sintattiche per definire un insieme di marcatori e di relazioni tra marcatori in una tabella, denominata Document Type Definition (DTD), ma non dice nulla per quanto riguarda la tipologia, la quantità e il nome dei marcatori. Questa astrazione, che permette di definire infiniti linguaggi di marcatura, costituisce il nucleo e la potenza dello SGML: in sostanza, SGML serve non già a marcare direttamente documenti, ma a costruire, rispettando standard comuni e rigorosi, specifici linguaggi di marcatura adatti per le varie esigenze particolari.

    Un linguaggio di marcatura SGML a sua volta descrive la struttura logica di un documento, e non prescrive la sua forma fisica (questo, come vedremo, è il compito di un foglio di stile). La struttura astratta di un documento viene specificata dichiarando gli elementi che lo costituiscono, come titolo, paragrafo, nota, citazione, etc., e le relazioni che tra questi intercorrono. A ciascun elemento corrisponde un marcatore. Una volta definito un determinato linguaggio, è possibile utilizzare i marcatori per codificare il contenuto di documenti elettronici.

    Un linguaggio di marcatura che rispetti le specifiche SGML - e gli eventuali sistemi informativi ad esso collegati - viene definita una SGML application. Sicuramente la più diffusa in assoluto di queste applicazioni è proprio HTML, sebbene il legame con SGML sia sconosciuto alla maggioranza dei suoi stessi utilizzatori. Ma esistono molte altre applicazioni SGML, alcune delle quali sono molto complesse e potenti. Pensate che alcune di queste applicazioni (come la Text Encoding Initiative, una DTD sviluppata dalla comunità internazionale degli studiosi di informatica umanistica) mettono a disposizione centinaia di istruzioni di codifica.

    La codifica SGML dei testi elettronici, oltre alla sua potenza espressiva, offre una serie di vantaggi dal punto di vista del trattamento informatico. In primo luogo, poiché un file SGML può essere composto di soli caratteri ASCII stampabili, esso è facilmente portabile su ogni tipo di computer e di sistema operativo. Inoltre un testo codificato in formato SGML può essere utilizzato per scopi differenti (stampa su carta, presentazione multimediale, analisi tramite software specifici, elaborazione con database, creazione di corpus linguistici automatici), anche in tempi diversi, senza dovere pagare i costi di dolorose conversioni tra formati spesso incompatibili. Ed ancora, la natura altamente strutturata di un documento SGML si presta allo sviluppo di applicazioni complesse. Possiamo citare ad esempio l'aggiornamento di database; la creazione di strumenti di information retrieval contestuali; la produzione e la manutenzione di pubblicazioni articolate come documentazione tecnica, manualistica, corsi interattivi per l'insegnamento a distanza.

    La possibilità di distribuire di documenti elettronici in formato SGML su World Wide Web fornirebbe dunque un evidente valore aggiunto alla editoria elettronica online. Ogni editore potrebbe utilizzare l'insieme di codifiche che maggiormente risponde alle sue esigenze, o eventualmente produrne di nuovi, senza attendere il rilascio di aggiornamenti ufficiali. Ad ogni applicazione SGML sarebbero associati uno o più fogli di stile che garantirebbero un esatto controllo della presentazione su video dei documenti pubblicati.

    La piena attuazione di questa evoluzione, tuttavia, si scontra con diversi ostacoli:

    • l'uso generico di SGML richiede una vera e propria ristrutturazione della attuale architettura di World Wide Web
    • l'implementazione di un browser SGML generico è dal punto di vista computazionale decisamente più complessa di quella di un normale browser HTML, e peraltro comporta degli obblighi tecnici che limitano l'efficienza del trasferimento di informazioni sulla rete
    • l'uso consolidato di HTML ha generato consuetudini ed attese difficilmente modificabili.

    Per superare questi problemi sono state proposte diverse soluzioni. Una soluzione intermedia per la pubblicazione di documenti SGML su Internet consiste nella utilizzazione di un browser SGML che funzioni come visualizzatore esterno o come plug-in di un normale Web browser. Uno strumento di questo tipo già esiste: si chiama Panorama, ed è stato sviluppato dalla SoftQuad.

    La seconda soluzione consiste nella definizione di un sottoinsieme semplificato di SGML pensato appositamente per la creazione di documenti su Web. Il W3C ha recentemente avviato lo sviluppo di un linguaggio di questo tipo, denominato Extensible Markup Language (XML), le cui caratteristiche tecniche facilitano notevolmente l'implementazione di un browser, pur mantenendo la piena compatibilità, e i vantaggi, offerti dallo standard ISO.

    SoftQuad Panorama

    Panorama è un browser SGML generico, prodotto dalla SoftQuad, una delle aziende leader nel mercato di settore. Il programma è disponibile in due versioni: una versione freeware, con funzionalità limitate, e una versione commerciale, di cui è stata recentemente rilasciata la nuova release 2. Entrambe possono essere usate sia come programmi autonomi, per visualizzare documenti locali, sia come applicazioni di supporto per un browser Web. In questo modo il documento SGML può contenere al suo interno dei link ad altri documenti remoti, esattamente come un normale file HTML. Panorama 2 viene distribuito anche come controllo ActiveX per Explorer e come plug-in per Netscape (ancora in beta test nel momento in cui scriviamo).

    Panorama fa parte di una serie di applicazioni che la SoftQuad ha realizzato per l'uso di SGML su Web, e supporta anche l'annunciato XML. Informazioni a riguardo possono essere ovviamente trovate sul sito Web della società, all'indirizzo http://www.softquad.com.

    Per permettere al browser Web di avviare Panorama quando riceve un file SGML da Internet, occorre configurarlo appositamente. Le informazioni relative al mime type da inserire nella finestra di configurazione delle 'Helper applications' sono le seguenti:

    • mime type: sgml
    • Mime Sub Type: x-sgml
    • file extension: sgm, sgml
    • applicazione da avviare: x:\path\panorama.exe

    L'interfaccia utente di Panorama si differenzia da quella di un consueto browser Web. La finestra principale è divisa in due aree. La parte sinistra può contenere un indice dei contenuti, o una rappresentazione ad albero della struttura del documento, la parte destra mostra il documento. Per passare da una visualizzazione all'altra si usano i comandi 'Contents' e 'SGML Tree' nel menu 'Navigator'.

    L'indice, detto navigatore, viene generato automaticamente dal programma usando i marcatori che identificano i titoli di vario livello presenti nel documento. Le voci dell'indice sono attive e permettono di saltare direttamente al capitolo o paragrafo selezionato. L'albero invece mostra i rapporti tra i vari elementi che costituiscono il documento. Anche in questo caso se si seleziona con il mouse un certo elemento, viene evidenziato il contenuto corrispondente nella finestra del testo.

    Figura 88 Il browser SGML Panorama 2 della SoftQuad. I marcatori SGML sono visibili

    Il testo, a sua volta, può essere visualizzato in due modalità:

    • solo testo formattato
    • testo formattato con i marcatori SGML

    Per passare da una modalità all'altra occorre selezionare o deselezionare il comando 'Show Tags' del menu 'Options'. La figura precedente mostra l'aspetto di un file SGML con i marcatori visibili. È possibile così vedere immediatamente che tipologia di codifica ha avuto ogni segmento del testo, ed usufruire delle informazioni strutturali veicolate dalla codifica. La Figura 89 invece mostra la stessa porzione di file con il solo contenuto. Le parti di testo sottolineate, codificate con il tag <XREF>, sono dei link attivi. In questo caso abbiamo usato Panorama 2, in versione controllo ActiveX. Come potete vedere in questo caso la finestra è interna a quella di Explorer, la cui barra dei menu mostra anche i comandi dell'applicazione ospite.

    Figura 89 Panorama 2 in versione Active X, con la finestra del navigatore attiva

    L'impaginazione e la formattazione dei caratteri avviene attraverso l'associazione di un foglio di stile al file del documento. Il meccanismo dei fogli di stile di Panorama usa una sintassi è in formato proprietario, ma le versione due ha anche il supporto per lo standard CSS1. Ogni tipo di documento (DTD in terminologia SGML) può avere più fogli di stile associati. Se Panorama riceve un file per il quale ha uno o più fogli di stile, allora lo applica, altrimenti ne richiede uno al server remoto.

    Grazie alla codifica SGML, Panorama è dotato di strumenti di ricerca interna al file notevolmente più avanzati rispetto ai normali browser HTML. È possibile cercare le occorrenze di un dato elemento, oppure le occorrenze di una certa stringa di testo contenute solo all'interno di determinati elementi. La sintassi per effettuare le ricerche prevede l'uso di operatori logici (AND, OR) e di operatori di relazione (IN, CONT). Ad esempio, se vogliamo cercare tutte le occorrenze di "style" solo nei paragrafi del corpo del testo, occorre prima attivare la finestra di dialogo con il comando 'Search' nel menu 'Edit', e poi digitare quanto segue:

    style in <P>

    Come appare evidente, le potenzialità di questo programma sono veramente notevoli. Non possiamo in questa sede approfondire l'analisi di tutte le funzionalità, che del resto sono disponibili solo nella versione commerciale, anche perché sarebbe necessaria una conoscenza più approfondita delle caratteristiche dello SGML. Ma crediamo che questa veloce ricognizione di un prodotto peraltro assai 'giovane' permetta di affermare che la diffusione di tecnologie ed applicazioni SGML può costituire un vero e proprio punto di svolta per l'evoluzione della editoria elettronica e in particolare della editoria in rete.

    XML

    Extensible Markup Language (XML) è il più recente ed interessante progetto promosso dal W3 Consortium. Obiettivo dell'iniziativa è l'introduzione di un meccanismo per estendere e personalizzare la struttura dei documenti utilizzabili su Web, superando così i limiti imposti da un insieme chiuso di marcatori, come avviene per HTML.

    Il progetto XML, che rientra nella SGML Activity dell'organizzazione, è iniziato alla fine del 1996. L'attività di definizione del nuovo standard è condotta da un apposito gruppo di lavoro (SGML Working Group), composto da oltre ottanta esperti mondiali delle tecnologie SGML, e da una commissione (SGML Editorial Review Board) deputata alla redazione delle specifiche. I materiali pubblicati, insieme ad informazioni ed aggiornamenti sono pubblicati periodicamente su Web all'indirizzo http://www.w3.org/pub/WWW/MarkUp/SGML/Activity.

    Il progetto XML si articola in tre fasi: la prima fase consiste nella elaborazione delle specifiche del linguaggio in sé. Una prima bozza, pressoché definitiva, è stata rilasciata nel novembre del 1996, mentre il rilascio ultimo è fissato per la metà del 1997. La seconda fase prevede la definizione di una serie di meccanismi standard per la costruzione di collegamenti ipertestuali. La terza fase infine riguarda la definizione di uno o più linguaggi per fogli di stile che potranno essere associati ad un documento XML.

    XML, come accennato sopra, è un sottoinsieme di SGML semplificato ed ottimizzato specificamente per applicazioni in ambiente World Wide Web. Dunque si tratta di un vero metalinguaggio, che permette di specificare molteplici classi di linguaggi di marcatura, e non una semplice applicazione SGML.

    Rispetto all'illustre e potente predecessore, richiede una curva di apprendimento di gran lunga minore (le specifiche constano di venticinque pagine contro le cinquecento dello standard ISO), e soprattutto è notevolmente più facile da implementare. Infatti alcune delle caratteristiche più esoteriche di SGML, che ne accrescono la complessità computazionale, sono state eliminate. La semplificazione tuttavia non comporta incompatibilità: un documento XML valido è sempre un documento SGML valido (naturalmente non vale l'inverso). La trasformazione di una applicazione o di un documento SGML in uno XML è, nella maggior parte dei casi, una procedura automatica.

    I lavori relativi alle fase due del progetto XML, nel momento in cui stiamo scrivendo sono ancora in una fase preliminare. Sicuramente anche in questo settore le innovazioni saranno molte. Allo stato attuale su Web esiste un solo tipo di collegamento ipertestuale, unidirezionale e privo di qualsiasi informazione circa la destinazione e la tipologia del link. XML invece sarà dotato di un sistema articolato di costrutti per specificare collegamenti, ereditato da altre applicazioni SGML come HyTime e TEI, e in grado di supportare destinazioni multiple (link uno a molti), e tipologie esplicite.

    Infine, la fase tre sarà dedicata alla individuazione di un sistema si fogli di stile per specificare le caratteristiche fisiche e grafiche di un documento XML. Al momento non esistono ancora chiare indicazioni su quale sarà il linguaggio scelto per questo scopo. Con ogni probabilità la scelta cadrà sul linguaggio DSSSL, anche se non si esclude l'indicazione di più di un meccanismo standard, tra cui gli utenti potranno scegliere quello più adeguato alle loro esigenze. Per maggiori informazioni su fogli di stile rimandiamo al prossimo paragrafo

    Insomma il progetto XML nel suo complesso provvede una collezione di specifiche standard che permettono di creare, gestire e mantenere applicazioni ipermediali complesse su World Wide Web giovandosi delle potenzialità dei sistemi di markup generici. La sua applicazione, potrà rappresentare uno vero e proprio salto evolutivo, affiancandosi per rilevanza all'introduzione del linguaggio Java.

    Naturalmente affinché questo accada è necessario che l'industria delle tecnologie Internet, ed in particolare le due aziende leader del settore, lo accolga e lo supporti. Da questo punto di vista la situazione è ancora interlocutoria. La Microsoft sta partecipando, con un suo esponente, Jean Pauli, alla definizione di XML; anche se non ha fatto al riguardo alcun annuncio ufficiale, sembra avere una posizione favorevole, in linea di principio, ad implementare nelle versioni future del suo browser funzionalità basate su standard aperti.

    Diversamente Netscape non ha dimostrato finora alcun interesse verso il lavoro in corso al W3C. La politica commerciale della attuale leader nel mercato Internet sembra improntata ad un certo distacco verso l'attività di standardizzazione, probabilmente nel tentativo di mantenere la posizione dominante, o meglio di difenderla dall'attacco di un gigante come Microsoft. Ma come la storia di Internet fino ad oggi ha dimostrato, qualsiasi tentativo di limitare la natura aperta delle tecnologie di rete viene inesorabilmente condannato al fallimento. È auspicabile che Netscape, ritornando allo spirito di frontiera che l'ha caratterizzata in passato, sappia cogliere la novità rappresentata da XML, e aiutare in questo modo lo sviluppo della rete.

    I fogli di stile

    Se le tecnologie SGML/XML di cui abbiamo parlato nei paragrafi precedenti riguardano il potenziamento del lato strutturale, per così dire, dei documenti pubblicati su World Wide Web, l'idea di utilizzare i fogli di stile è stata avanzata per migliorarne l'aspetto formale.

    Nella attuale architettura di World Wide Web le regole di formattazione ed il rendering grafico di un documento sono codificati nel browser. Il controllo sull'aspetto della pagina da parte dell'autore è molto limitato, e peraltro si basa su un insieme di marcatori HTML che possono introdurre inconsistenze strutturali nel documento. L'introduzione dei fogli di stile risolve entrambi i problemi poiché:

    • consente una cura dettagliata del progetto grafico di una pagina Web
    • separa la specificazione della grafica della struttura logica del contenuto.

    Questo apre la strada allo sviluppo di un vero design grafico per le pubblicazioni in rete, esigenza molto sentita nella editoria professionale.

    Il concetto di foglio di stile nasce nell'ambito delle tecnologie di word processing e desktop publishing. L'idea alla base di questa tecnica è quella di separare il contenuto testuale di un documento elettronico dalle istruzioni che ne governano l'impaginazione, le caratteristiche grafiche e la formattazione. Per fare questo è necessario suddividere il testo in blocchi etichettati ed associare poi ad ogni blocco uno specifico stile, che determina il modo in cui quella particolare porzione del testo viene impaginato sul video o stampato su carta. Ad esempio, ad un titolo di capitolo può essere associato uno stile diverso da quello assegnato a un titolo di paragrafo o al corpo del testo (lo stile 'titolo di capitolo' potrebbe prevedere, poniamo, un carattere di maggiori dimensioni e in grassetto, la centratura, un salto di tre righe prima dell'inizio del blocco di testo successivo; a un blocco di testo citato potrebbe invece essere assegnato uno stile che prevede un corpo lievemente minore rispetto al testo normale, e dei margini maggiori a sinistra e a destra per poterlo 'centrare' nella pagina). Per chi usa un moderno programma di scrittura come Microsoft Word o Wordperfect questo processo, almeno ad un livello superficiale, dovrebbe risultare alquanto familiare.

     
      I fogli di stile facilitano la formattazione dei documenti, permettono di uniformare lo stile di diversi testi dello stesso tipo, e semplificano la manutenzione degli archivi testuali. Infatti la modifica delle caratteristiche formali di uno o più documenti non richiede di effettuare un grande numero di modifiche locali. Se, ad esempio, una casa editrice decide di cambiare il corpo tipografico dei titoli di capitolo nelle sue pubblicazioni, sarà sufficiente modificare il foglio di stile per quella porzione di testo, ed automaticamente tutti i testi erediteranno la nuova impostazione grafica.

    Il meccanismo dei fogli di stile si presta facilmente ad essere applicato ai documenti in formato HTML, e in generale ad ogni documento codificato con linguaggi SGML. Questo tipo di linguaggi, infatti, si basa proprio sulla esplicitazione degli elementi strutturali di un testo attraverso i marcatori. È sufficiente dunque definire una notazione che permetta di associare ad ogni marcatore uno stile. Naturalmente è poi necessario che il browser sia in grado di interpretare questa notazione, e di applicare le relative istruzioni di formattazione. Una notazione di questo tipo è un linguaggio per fogli di stile.

    Due sono i linguaggi attualmente al centro dell'interesse per la definizione di fogli di stile da utilizzare per le pagine Web: il Cascading Style Sheets (CSS), pensato esplicitamente per operare con il linguaggio HTML, e il Document Style Semantics and Specification Language (DSSSL), orientato verso il mondo SGML/XML. Una trattazione approfondita di questi due linguaggi esula dagli scopi del presente manuale, e dunque ci limitiamo a fornire al lettore solo alcune notizie illustrative.

     
      CSS

    La tecnologia dei Cascading Style Sheet, ideata da Håkon Lie alla fine del 1994, è stata sviluppata dal W3 Consortium. La prima versione delle specifiche CSS sono state approvate come raccomandazione ufficiale dell'organizzazione nel dicembre 1996. Il testo definitivo, con il titolo Cascading Style Sheets, level 1, è disponibile al sito Web del W3C, all'indirizzo http://www.w3.org/pub/WWW/TR/REC-css1.html.

    Il CSS1, come si afferma nel testo, è "un semplice meccanismo che consente ad autori e lettori di attaccare stili (font, colori e spaziature) a documenti HTML. Il linguaggio CSS1 può essere letto e scritto anche da un normale utente, ed esprime gli stili nella comune terminologia del desktop publishing".

    La caratteristica fondamentale del CSS, dalla quale deriva il nome, è la possibilità di sovrapporre stili in 'cascata'; in questo modo l'autore può definire una parte degli stili in un foglio globale che si applica a tutte le pagine di un sito, e una altra parte in modo locale per ogni pagina, o persino per singoli elementi HTML all'interno della pagina. Le regole per risolvere definizioni conflittuali, esplicitate nelle specifiche, fanno si che lo stile definito per ultimo prende il sopravvento su tutte le definizioni precedenti. In teoria, se il browser lo consente, anche il lettore può definire i suoi stili.

    La sintassi CSS1 è molto semplice, almeno al livello base. Ad esempio, per indicare che i titoli di primo livello debbono usare un font 'Times' con dimensione di 16 punti tipografici in stile grassetto è sufficiente scrivere quanto segue:

    H1{font-size: 15pt; font-weight: bold }

    Per collegare un foglio di stile ad un documento HTML sono previsti diversi metodi: si può definire il foglio di stile in un file esterno, e collegarlo al file che contiene il documento HTML (mediante l'elemento <LINK>); si possono inserire le direttive CSS direttamente all'interno del file HTML, usando l'istruzione speciale <STYLE>; e infine si possono associare stili ad ogni elemento usando l'attributo 'style'.

    Il primo Web browser a vasta diffusione su cui è stata implementata la tecnologia CSS1 è Microsoft Explorer (a partire dalla versione 3). Nel momento in cui stiamo scrivendo anche gli altri produttori di Web browser, tra cui Netscape, hanno inserito il supporto ai fogli di stile CSS nei loro prodotti, o lo hanno annunciato a breve termine. L'adozione di questa tecnologia potrà auspicabilmente porre fine alla corsa per estendere HTML con inutili e confusionarie istruzioni proprietarie, dando agli sviluppatori di siti Web un reale strumento di graphic design.

    Intorno alle specifiche CSS1 sono in corso di sviluppo altre tecnologie, che ne aumenteranno la potenzialità. In particolare ricordiamo: il trasferimento dinamico dei tipi di carattere sulla rete, in modo tale da garantire che l'aspetto di una pagina sia esattamente quello progettato anche se l'utente non ha i font specificati sul suo sistema locale; la specificazione di stili per i software di conversione vocale; l'estensione delle capacità di controllo del layout (ad esempio la definizione di frame, attualmente effettuata mediante istruzioni HTML).

    DSSSL

    La seconda tecnologia di fogli di stile per la formattazione di pagine Web, il Document Style Semantics and Specification Language (DSSSL), nasce invece nel mondo SGML. Si tratta, infatti, di uno standard approvato dalla International Standardization Organization, ufficialmente rilasciato nel 1996 con la sigla ISO/IEC 10179:1996.

    DSSSL è un linguaggio molto potente, sviluppato esplicitamente per operare, in modo indipendente dalla piattaforma, su documenti strutturati, ed in particolare su documenti in formato SGML. Dal punto di vista informatico si basa sulla sintassi del linguaggio di programmazione Scheme. DSSSL si divide in due sottoinsiemi: un insieme di istruzioni che permettono di applicare processi di trasformazione ai documenti SGML (ad esempio dato un elenco bibliografico strutturato, una procedura DSSSL può generare diversi ordinamenti; o ancora, dato un gruppo di elementi strutturali, può generare un indice dei contenuti dinamico); e un insieme di istruzioni di formattazione, che possono essere utilizzate per la formattazione di documenti sia in ordine alla stampa professionale su carta, che alla presentazione su media elettronici. DSSSL permette di specificare procedure di formattazioni condizionate dal contesto (ad esempio: il primo paragrafo dopo un titolo non ha rientro della prima linea di testo), e consente la costruzione di convertitori tra un formato ed un altro, operazioni impossibili in CSS.

     
      Tanta potenza, naturalmente, si paga con altrettanta complessità. La implementazione completa di una applicazione DSSSL comporta notevoli problemi computazionali. Inoltre, a differenza di CSS, DSSSL sarebbe assai difficilmente utilizzabile senza degli editor interattivi. Per facilitare la sua applicazione in ambienti di rete, un gruppo di specialisti, tra cui Jon Bosak ed lo scomparso Yuri Rubinsky, ne ha ricavato un sottoinsieme che è destinato in modo specifico alla impaginazione di documenti elettronici. Le specifiche di questo sottoinsieme, denominato DSSSL Online (DSSSL-o), sono state pubblicate da Bosak nell'agosto del 1996. Il testo è disponibile su Web all'indirizzo http://occam.sjf.novell.com/docs/dsssl-o/do960816.htm, ma non è certamente di facile lettura.

    Attualmente non esiste nessuna implementazione di questo linguaggio in applicazioni o in browser per World Wide Web, né sono stati annunciati sviluppi a breve termine in questa direzione. DSSSL ha trovato invece un buona accoglienza nel mondo SGML, dove i maggiori produttori di sistemi hanno deciso di implementare questa tecnologia per la formattazione di documenti su carta e su supporto digitale. Chi è interessato, e ha una buona dose di pazienza, può tuttavia gustare le potenzialità di questo linguaggio usando il motore DSSSL di James Clark, battezzato Jade (http://www.jclark.com/jade/), e il foglio di stile per HTML 3.2 realizzato da Jon Bosak (ftp://sunsite.unc.edu/pub/sun-info/standards/dsssl/stylesheets/html32/html32hc.zip).

    Con questa combinazione è possibile ottenere a partire da un file HTML 3.2 un file in formato RTF che, stampato, presenta una qualità decisamente superiore a qualsiasi stampa effettuata direttamente da un browser.

    Le difficoltà che DSSSL pone sia agli sviluppatori di software che ai progettisti di fogli di stile, giustificano lo scarso interesse del mondo Internet verso questo linguaggio. Senza contare che non avrebbe senso effettuare un tale sforzo progettuale e produttivo per applicare fogli di stile DSSSL al solo linguaggio HTML. Il sistema CSS si rivela più che adeguato alla gestione grafica della attuale tecnologia Web.

    Nuove prospettive si potranno invece aprire se e quando il progetto XML giungerà in porto. Con XML infatti un autore può definire la sua struttura del documento, decidendo quali marche utilizzare e come queste si possono articolare. È naturale dunque che disponga anche di un linguaggio di foglio di stile altrettanto aperto e flessibile. La definizione di uno o più sistemi di fogli di stile è in agenda per la terza fase del progetto. Ma nel dibattito interno alla SGML ERB, coordinata dallo stesso Jon Bosak, è già emersa la chiara determinazione di individuare nel linguaggio DSSSL Online il sistema di riferimento per la formattazione di documenti XML.

    PICS e il controllo dei contenuti su World Wide Web

    Uno degli aspetti di Internet che sembrano maggiormente appassionare la pubblicistica non specializzata è il controllo dei contenuti veicolati attraverso le pagine Web. Il problema che più spesso viene evocato a questo riguardo è la facilità con cui soggetti a rischio (bambini o comunque minori) possono accedere a risorse 'informative' che potrebbero arrecare turbamento, come siti contenenti materiali pornografici o violenti.

    L'incidenza percentuale di questi materiali rispetto al totale delle risorse disponibili su Web è assai bassa. Tuttavia è innegabile che molti siti pornografici siano facilmente raggiungibili, e che nella maggior parte dei casi i contenuti di tali siti siano decisamente squallidi e deleteri.

    La soluzione al problema proposta con maggiore frequenza è l'introduzione di sistemi di controllo di tipo legislativo sui contenuti della rete. Indipendentemente dalla posizione ideologica che si può assumere nei confronti della censura - che gli autori di questo manuale comunque non approvano - l'idea di un controllo autoritario sui contenuti della rete si scontra con la sua struttura tecnica, che permette di superare qualsiasi sistema di controllo o impedimento esterno. Ad esempio non è facile bloccare l'arrivo di informazioni da paesi che non applicano restrizioni legali, a meno di impedire del tutto l'accesso alla rete (come avviene di norma in paesi controllati da regimi autoritari, quali Cina e Singapore).

    Una soluzione alternativa alla censura delle fonti è l'uso di sistemi di filtri che agiscono dalla parte dell'utente finale, impedendo l'accesso a contenuti sconvenienti da parte di soggetti non autorizzati. Su questo principio si basa la Platform for Internet Content Selection (PICS), sviluppata dal W3 Consortium, e assurta al grado di 'recommendation' alla fine del 1996. Sul sito del W3C, all'indirizzo http://www.w3.org/pub/WWW/PICS/ sono disponibili le specifiche ufficiale e altre informazioni su questa tecnologia.

     
      PICS è un sistema che permette di associare etichette alle pagine Web. Ogni etichetta, mediante una sintassi formalizzata, fornisce una valutazione (rating) del contenuto della pagina in base ad una determinata classificazione, ed è univocamente associata alla pagina per la quale è stata rilasciata.

    Le etichette PICS possono essere usate da apposite applicazioni che filtrano le informazioni in arrivo dalla rete. Tali applicazioni sono in grado confrontare l'etichetta del documento in arrivo con un insieme di etichette di riferimento indicate dall'utente: se la valutazione indicata risponde ai criteri prescelti la ricezione della pagina viene autorizzata; in caso contrario l'accesso all pagina viene impedito.

    La classificazione in base a etichette PICS va richiesta, ad agenzie indipendenti, direttamente dai responsabili dei singoli siti. L'aspetto positivo di questa tecnologia è che non esiste una autorità centrale che censura o approva il contenuto di un sito su World Wide Web. Il sistema si basa interamente sull'autocontrollo e sulla responsabilizzazione dei gestori di siti, degli autori di pagine Web e degli utenti.

    Per il momento l'unico servizio di rating disponibile sulla rete è quello del Recreational Software Advisory Council (RSAC). Si tratta di un osservatorio indipendente formato da un gruppo di aziende ed organizzazioni (tra cui lo stesso W3C). Per avere informazioni, o richiedere una valutazione, si può visitare il sito Web http://www.rsac.org.

    Allo stato attuale, i software compatibili con le specifiche PICS non sono moltissimi. In alcuni casi si tratta di programmi che si interpongono tra il client Web e il pacchetto di accesso alla rete. In altri casi invece l'architettura PICS è integrata nel browser. Tra i più diffusi ricordiamo Microsoft Explorer, che ha adottato la tecnologia PICS a partire dalla versione 3.

    L'amministrazione delle restrizioni di accesso con il browser Microsoft è alquanto complicata, e si effettua mediante la scheda 'Protezione' nella finestra delle 'Opzioni'. Il pulsante 'Attiva Restrizioni' mette in funzione il sistema di controllo; il pulsante 'Impostazioni' invece ne consente configurazione. Sia l'attivazione che l'impostazione delle restrizioni sono protette da una password.

    Figura 90: La gestione delle restrizioni di accesso PICS con Explorer 3

    Quando la restrizione è attiva il browser impedisce l'accesso a ogni pagina priva di etichette PICS. Le pagine etichettate invece vengono confrontate con il sistema di classificazione del servizio RSAC. Come vedete nella Figura 90 questo sistema consente di configurare il browser in modo da impedire l'accesso a siti con vari livelli di contenuti pornografici o violenti o volgari. È comunque possibile aggiungere altri schemi di classificazione.

    Normalmente le etichette PICS sono inserite all'interno di un file HTML. Tuttavia è possibile anche usare un servizio di etichettatura (label bureau) dinamico, che invia etichette su richiesta. Questo facilita la gestione del sistema di classificazione e aumenta le garanzie rispetto a possibili manomissioni delle etichette - rese comunque difficili dalla presenza di firme digitali cifrate.

    Le potenziali applicazioni di questa tecnologia, sviluppata originariamente per aiutare genitori ed insegnati a controllare i contenuti dei siti visitati da bambini e ragazzi, hanno una portata molto vasta. In particolare è stato osservato da molti esperti nel settore bibliotecario che PICS può diventare un sistema per associare metadati ai documenti elettronici su World Wide Web. Di 'metadati' si parla a proposito dell'insieme di informazioni che descrivono una determinata risorsa informativa, e ne permettono l'individuazione ed il reperimento. Un esempio di metadati è costituito dai riferimenti bibliografici di una pubblicazione (titolo, autore, editore, etc.). Nei documenti a stampa, il frontespizio è il veicolo primario di questi metadati; essi poi costituiscono il contenuto delle schede nei cataloghi bibliotecari, e dunque sono di supporto al reperimento del documento. L'uso di etichette PICS come contenitori di metadati catalografici permetterebbe di potenziare enormemente i sistemi di ricerca delle informazioni su Web.

    Un altro aspetto in cui PICS potrebbe fornire un valido supporto è la certificazione dei documenti. Le tradizionali tecnologie di diffusione dell'informazione hanno sviluppato un complesso di tecniche che certificano l'autenticità di un documento e l'aderenza di ogni copia all'originale, basate sulla difficoltà di riproduzione e manipolazione di un testo stampato. Invece, per il momento, non esiste alcun modo per verificare che un documento elettronico distribuito sulla rete sia una copia esatta dell'originale, o di avere la garanzia che non abbia subito manipolazioni e modifiche non autorizzate dall'autore. Le etichette PICS, unite alle tecnologie di criptazione a chiave pubblica (di cui parleremo in seguito), permettono di associare ad ogni documento un certificato di autenticità. Tale certificato di autenticità PICS potrebbe anche essere la base di un sistema per calcolare il numero di accessi a un documento, e dunque per calcolare i diritti di autore.

    Le prospettive aperte dalla tecnologia PICS costituiscono quindi un ulteriore passo in avanti nella evoluzione di World Wide Web in un vero e proprio sistema di editoria online.

     
      Uniform Resource Name

    Une delle esperienze più comuni tra gli utilizzatori abituali di World Wide Web è l'apparizione del messaggio 'error 404: Document not found', quando si cerca di accedere a un documento attraverso un link ipertestuale o mediante la sua URL. Che cosa significa?

    Semplicemente che il file corrispondente non si trova più nella posizione indicata dal suo indirizzo. Che fine ha fatto? Può essere stato spostato, cancellato, rinominato. Il fatto è che i riferimenti in possesso dell'utente non gli permettono più di accedere al suo contenuto.

    Un esperienza simmetrica, invece, è la scoperta che il contenuto di un certo documento, di cui magari si era inserita la URL nell'elenco dei bookmark, è cambiato. Anche in questo caso la causa del problema è molte semplice: al file 'xyz.hml' è stato cambiato il contenuto, mantenendogli lo stesso nome.

    Alla radice di queste spiacevoli esperienze c'è uno dei limiti più importanti della attuale architettura di World Wide Web: il sistema di assegnazione dei nomi alle risorse informative sulla rete, e il modo in cui queste vengono localizzate. Come sappiamo, attualmente queste due funzioni sono svolte entrambe dalla URL di un documento. Il problema fondamentale è che la Uniform Resource Locator fornisce un ottimo schema di indirizzamento (ovvero indica con molta efficienza la posizione sulla rete di un file), ma un pessimo schema di assegnazione di nomi.

    L'unificazione delle funzioni di indirizzamento e di identificazione delle risorse in una unica tecnologia si rivela un sistema inadeguato in molti altri settori. A titolo di esempio: introduce grossi problemi nello sviluppo di applicazioni di information retrieval sulla rete; rende molto difficile la citazione ed il riferimento e la catalogazione bibliografica dei documenti presenti in rete; non permette lo sviluppo di sistemi di versioning, ovvero sistemi che tengono traccia dell'evoluzione dinamica di un documento, conservandone le versioni successive; complica la gestione del mirroring, ovvero la creazione e l'allineamento di molteplici esemplari di un medesimo documento.

    Lo sviluppo di un efficiente sistema di distribuzione dell'informazione su rete geografica, richiede dunque un potente ed affidabile sistema di identificazione delle risorse informative. Per rispondere a questa esigenza, vari enti ed organizzazioni che si occupano dello sviluppo degli standard su Internet hanno proposto una architettura ad hoc denominata Uniform Resource Name (URN). In realtà con questa sigla vengono indicate una serie di tecnologie, ancora in fase sperimentale, nate in ambiti diversi e caratterizzate da diversi approcci e finalità immediate. Nell'ottobre del 1995, in una conferenza tenuta alla University of Tennessee, i vari gruppi interessati hanno definito un sistema di specifiche unitarie. La convergenza prevede la compatibilità tra le varie implementazioni, pur garantendo la coesistenza di ognuna di esse. Dal 1996 la IETF, che si occupa della definizione degli standard per Internet, ha creato un gruppo di lavoro sugli URN.

    Chi è interessato ad approfondire gli aspetti tecnici e gli sviluppi in corso può consultare le pagine Web di questa commissione, il cui indirizzo è http://www.ietf.org/html.charters/urn-charter.html; molte informazioni si trovano anche nella pagina Web curata da Daniel LaLiberte sul server del NCSA (http://union.ncsa.uiuc.edu/HyperNews/get/www/URNs.html). In questa sede ci limiteremo ad esporre le caratteristiche generali dell'architettura URN.

    Un URN è un identificatore che può essere associato ad ogni risorsa disponibile su Internet, e che dovrebbe essere utilizzato in tutti i contesti che attualmente fanno uso delle URL. In generale, esso gode delle seguenti caratteristiche:

    • unicità: due risorse distinte non possono avere lo stesso URN
    • validità globale: un URN è indipendente dalla localizzazione della risorsa
    • persistenza: una volta assegnato un URN ad una risorsa esso rimarrà associato ad essa per sempre, anche se la risorsa non sarà più disponibile; nessuna altra risorse in futuro potrà avere un URN già assegnato
    • scalabilità: ogni tipo di risorsa su Internet, presente e futura, potrà avere un URN che gode delle caratteristiche elencate sopra.

    Per risorsa si intende il 'contenuto intellettuale' di un documento (testo, immagine, animazione, software, etc.), o una sua particolare presentazione: ad esempio, ogni versione di un documento in un dato formato può avere un URN. Ciascuna risorsa individuata da un URN può essere disponibile in molteplici copie, distribuite su diversi luoghi della rete: conseguentemente ad ogni URN possono corrispondere molteplici URL. Il processo di determinazione delle URL di una risorsa a partire dalla sua URN viene definito 'risoluzione'. I nomi vengono assegnati da una serie di autorità indipendenti, dette naming authority, che garantiscono la loro unicità e permanenza. A ogni naming authority corrisponde almeno un Name Resolution Service, ovvero un sistema software che effettua la risoluzione del nome.

    I problemi che si cerca di risolvere attraverso l'introduzione degli URN sono molto rilevanti, anche se allo stato attuale, non esiste nessuna implementazione pubblica dell'architettura URN. I processi di standardizzazione, come al solito, sono molto lenti, specialmente in un ambiente decentralizzato come Internet. Il consenso necessario alla introduzione di una tecnologia completamente nuova richiede il consenso di molti soggetti, e non di rado impone agli attori commerciali notevoli investimenti nella progettazione o modifica dei prodotti software. L'introduzione delle URN è, comunque, tra gli obiettivi nella agenda del progetto Internet 2, che coinvolge alcune grandi università statunitensi nelle progettazione della rete del prossimo futuro.

    Nel frattempo, è stato sviluppato un sistema che offre una ottima approssimazione delle funzionalità di identificazione univoca dei documenti sulla rete. Si tratta delle Persistent URLs (PURLs), non casualmente messe a punto nell'ambito bibliotecario. Il sistema infatti nasce come progetto di ricerca sponsorizzato dalla OCLC, consorzio internazionale di biblioteche, di cui torneremo a parlare.

     
      Il sistema PURLs, come evidenzia il nome, si basa sull'attuale meccanismo di indirizzamento dei documenti su Web e dunque non richiede alcuna modifica negli attuali browser. In effetti una PURL è, sia dal punto di vista funzionale sia da quello sintattico, una normale URL, e può essere utilizzata negli stessi contesti (all'interno dei file HTML, nelle finestre dei browser, etc). Questa ad esempio, rimanda a un documento introduttivo sul tema:

    http://purl.oclc.org/OCLC/PURL/SUMMARY

    Invece che puntare direttamente verso la risorsa indirizzata, una PURL punta a uno speciale server che ospita un sistema di risoluzione (PURL resolution service): nell'esempio il servizio ha indirizzo 'purl.cloc.org'. Quest'ultimo, in base al nome della risorsa - nell'esempio /OCLC/PURL/SUMMARY/ - traduce la PURL in una vera e propria URL, e reindirizza il client verso questo indirizzo. Il meccanismo si basa su una normale transazione HTTP, detta redirezione.

    L'effettiva localizzazione della risorsa viene determinata dinamicamente dal PURL Service. Se un documento registrato presso un sistema di risoluzione PURL viene spostato (o se cambia il nome del file corrispondente), è sufficiente cambiare l'associazione PURL-URL sul sistema. La PURL rimane immutata e dunque tutti i riferimenti e i link da qualsiasi parte della rete verso quel documento continuano a funzionare perfettamente. L'aggiornamento delle relazioni deve essere effettuato esplicitamente dai responsabili della manutenzione del PURL Service. È comunque possibile eseguire questa operazione anche da computer remoti, e assegnare permessi di manutenzione per particolari gerarchie di nomi.

    Il primo PURL Resolution Service è stato attivato dalla OCLC dal gennaio del 1996, e si è dimostrato molto efficiente. Chi desidera vederlo in funzione può indirizzare il suo browser all'indirizzo http://purl.oclc.org. Naturalmente l'efficacia effettiva di questa tecnologia richiede la disseminazione attraverso la rete del maggior numero possibile di PURL server. Per facilitarne la diffusione l'OCLC ha deciso di distribuire gratuitamente il relativo software, che è disponibile sul sito Web indicato sopra. Molte istituzioni, specialmente nell'ambio bibliotecario ed accademico, hanno dimostrato grande interesse, e hanno iniziato a sviluppare altri servizi di risoluzione PURL.

    Il sistema PURL costituisce un importante passo intermedio verso l'architettura URN. Inoltre, è ormai chiaro che la sintassi PURL sarà facilmente traducibile in forma di URN, trasformandola in uno schema di indirizzamento. Dunque coloro che oggi hanno adottato la tecnologia sviluppata dalla OCLC saranno in grado di migrare verso la tecnologia URN senza problemi.

    Nel frattempo le PURL, appoggiandosi sull'attuale sistema di indirizzamento utilizzato su Internet, hanno il chiaro vantaggio di essere già disponibili, di funzionare perfettamente e risolvere la sindrome da 'error 404'.

    Nati per la rete: i network computer

    Terminiamo il nostro viaggio attraverso le nuove frontiere della rete con un tema che sta destando molto interesse nella comunità degli utenti e dei produttori di tecnologie Internet: il network computing.

    Nel paragrafo dedicato a Java abbiamo visto come le caratteristiche innovative di questo linguaggio di programmazione abbiano attirato una grande attenzione attorno a questa tecnologia. Tale attenzione è testimoniata dalla rapidità con la quale Java è diventato uno standard di fatto, adottato da tutto il mondo dell'informatica che ruota attorno ad Internet: oggi non esiste azienda informatica interessata alla rete che non abbia inserito Java nei suoi piani strategici, in un modo o nell'altro.

    Ma secondo alcuni analisti la diffusione di Java, in sinergia con lo sviluppo della rete, potrà avere conseguenze ancora più profonde. Ci troveremmo di fronte ad una ennesima rivoluzione nella storia dell'informatica: il passaggio dall'era del personal computing a quella del network computing.

    Fino ai primi anni '80 la storia dell'informatica è stata una storia di dinosauri tecnologici. Gli elaboratori informatici erano delle macchine enormi, costose e difficili da utilizzare. Solo i militari, alcune grandi aziende pubbliche e private, o le grandi università potevano permettersi gli investimenti necessari per acquistare utilizzare questi esosi e complessi 'ordigni' computazionali.

    La svolta epocale inizia in un garage: quello in cui Steve Wozniack e Steve Jobs, due giovani col pallino dell'informatica, costruirono, usando materiali di scarto, il primo vero personal: e lo chiamarono Apple. L'introduzione dei personal computer, fu l'inizio vero e proprio della rivoluzione digitale. I computer, uscirono dai centri di calcolo, e arrivarono prima sulle scrivanie degli uffici e poi nelle case, trasformando il modo di lavorare, di studiare, di giocare, di vivere. Per trovare un processo di trasformazione economica e sociale di simile portata indotto da una innovazione tecnologica, bisogna risalire ai tempi della macchina a vapore e della prima rivoluzione industriale.

    Nel giro di venti anni la potenza dei personal computer è cresciuta con ritmi esponenziali: oggi un desktop casalingo supera la potenza di calcolo dei mainframe di venti anni fa, che erano grandi come un appartamento. Questa crescita nella potenza di calcolo è legata strettamente alla crescita di complessità e potenzialità dei sistemi operativi e dei programmi applicativi, sempre più affamati di risorse, di memoria, di velocità. Un circolo infernale che ci costringe a rinnovare le apparecchiature informatiche ogni due o tre anni.

    L'idea del network computing, affermano i suoi sostenitori, potrebbe invertire proprio questa tendenza. Piuttosto che avere sul proprio disco rigido sistemi operativi giganteschi e molti programmi complessi, ci si potrebbe collegare a potenti server in rete: questi ultimi, oltre ai dati, potrebbero offrire i moduli software di volta in volta necessari, gran parte dei quali realizzati in Java. L'utente farebbe uso di queste 'applicazioni distribuite' solo per il tempo necessario, e pagherebbe il tempo di utilizzo.

    Naturalmente se le applicazioni e i programmi vengono distribuiti sulla rete anziché risiedere permanentemente sul disco fisso dell'utente, il computer di quest'ultimo potrebbe essere notevolmente alleggerito. Sarebbe sufficiente un semplice terminale intelligente, dotato di interfaccia per la connessione in rete ma senza sistema operativo. O meglio, con un sistema operativo capace di eseguire programmi Java in modo nativo, affiancato da un potente browser: un cosiddetto network computer. Infatti gran parte delle funzioni di un vero sistema operativo, come abbiamo già visto, risiederebbero sulla rete. I costi di un network computer sarebbero molto contenuti, e ciò che più conta, i costi per l'acquisto del software verrebbero drasticamente abbattuti.

    Ma c'è anche chi rileva i lati negativi di una 'rivoluzione' di questo tipo, e i motivi per i quali la sostituzione dei personal computer con i 'computer di rete' potrebbe risultare tutt'altro che desiderabile. Infatti il personal computer è uno strumento polifunzionale, che in linea di principio permette a chiunque di avere un rapporto attivo con le tecnologie informatiche, e di utilizzare gli strumenti che desidera in modo creativo e personalizzato. Non solo: il computer è anche un potente strumento cognitivo, grazie al quale ognuno dispone, in teoria, dei mezzi adeguati per produrre e manipolare informazioni complesse - in fondo, è innegabile che lo stesso fenomeno Internet sia un prodotto indiretto dell'era del personal computer. Il network computing invece tende a centralizzare i modelli di calcolo in grandi supercomputer, i quali determinano il tipo di applicazioni che ogni utente può usare, e il modo di usarle. C'è insomma il rischio di vedere una diminuzione della libertà e della creatività applicativa.

    Il dibattito sulle questioni di principio può risultare senza dubbio interessante. Ma nella realtà, il conflitto tra queste due impostazioni è fortemente determinato dagli enormi interessi in gioco nel mercato dell'informatica. Infatti lo spostamento di paradigma verso le tecnologie del network computing metterebbe in discussione l'attuale predominio delle due imprese leader nel settore dei sistemi operativi e dei microprocessori, rispettivamente Microsoft ed Intel. Una simile prospettiva ha naturalmente attirato l'attenzione del fronte 'anti-Wintel' (così si è soliti appellare il cartello di fatto tra i due colossi dell'informatica), a partire dalla azienda che ha sviluppato Java, la Sun Microsystem, per finire con nomi del calibro IBM e Apple.

    A riprova di questa forte preponderanza degli interessi economici nel dibattito, c'è il recente cambio di rotta che i maggiori esponenti del 'fronte network computer', Sun in testa, hanno introdotto nei piani di sviluppo di questa tecnologia. Uno sviluppo che, se ci viene perdonato un momento di indulgenza autoreferenziale, segue esattamente le linee che avevamo previsto nella precedente versione di questo libro, Internet '96. Abbandonato ben presto l'orizzonte del mercato consumer, il cliente di riferimento è stato individuato nel settore aziendale. Infatti lo stato attuale delle infrastrutture della rete Internet non consentirebbe un'effettiva applicazione dei principi del network computing nella fascia dell'utenza domestica.

    Invece il fenomeno Intranet/Extranet ha determinato la diffusione delle tecnologie Internet nelle reti aziendali, sia per le connessioni a grande distanza, che per reti locali. È in casi come questi che si trarranno i massimi benefici dal network computing: riduzione dei costi hardware, abbattimento dei costi software iniziali e, soprattutto, crollo dei costi di gestione e di innovazione del software; se sul piatto della bilancia si mette anche un maggiore controllo sui processi produttivi, è facile capire perché il network computer si rivolga all'azienda, e volti le spalle al navigatore casalingo.

    I primi prototipi di network computer aziendali sono stati presentati alla fine del 1996. Il più interessante, anche dal punto di vista del design, è il modello della Sun, battezzato programmaticamente Javastation, basato su un processore di tipo RISC in grado di eseguire codice Java in modo nativo. Anche IBM ha realizzato un modello di network computer, basato su un processore PowerPC, ma controllato da una versione ridotta di AIX, lo Unix di casa Big Blue.

    Insomma, a breve termine il nostro personal computer non sarà sostituito dai network computer. D'altra parte, la disponibilità di risorse di memoria e di calcolo sempre più veloci, potenti ed economiche rende difficile ipotizzare una ritorno tout-court all'era dei 'terminali stupidi'. Ma questo non vuol dire che il personal computer, potente e flessibile, rimarrà lo stesso.

    Al contrario, l'ambiente di lavoro del computer locale avrà una sempre maggiore integrazione con l'ambiente informativo globale ed aperto di Internet. Le applicazioni locali interagiranno sempre di più con le applicazioni distribuite. La stessa Microsoft si è indirizzata fortemente in questa direzione, integrando capacità di networking direttamente nel cuore dei suoi nuovi sistemi operativi e delle nuove applicazioni (come, ad esempio Office 97, la nuova versione della suite di produttività personale). E Netscape ha progettato un vero e proprio sistema operativo di rete, costruito intorno al suo browser, battezzato Constellation. Ma di questo abbiamo già parlato.

    Quello che è certo è che, ormai, nessuno dei protagonisti dell'arena informatica e telematica può evitare di fare i conti con Internet, e con tutte le tecnologie correlate alla rete.

    Indietro Avanti
    Torna su
    torna su
    Internet facile con E-text!