Appendice: Uno strano messaggio...
Le caselle di posta elettronica degli autori di questo
libro sono di norma piuttosto trafficate, e una buona metà
della cinquantina di nuovi messaggi che ci raggiungono ogni
giorno appartiene alla fastidiosa categoria dello spamming
più o meno esplicito: annunci di virus inesistenti, catene di
S. Antonio, mirabolanti offerte su componenti informatiche
ormai da tempo obsolete, pubblicità di nuovi siti e servizi
camuffate da informazione giornalistica, messaggi da liste
alle quali non ci si è mai iscritti e dalle quali è
impossibile dimettersi, inviti ammiccanti di fanciulle
sconosciute che promettono momenti indimenticabili su siti
erotici rigorosamente a pagamento, e così via.
Davanti a messaggi siffatti, che l'intestazione basta quasi
sempre a tradire, il puntatore del nostro mouse corre verso il
pulsante 'delete' con la stessa rapidità con la quale la mano
di uno sceriffo dell'antico West correva alla fondina della
pistola.
Se dunque un messaggio dal titolo Your best deal EVER:
the future - free of charges si è salvato dalla
cancellazione immediata, lo si deve solo all'inevitabile
curiosità suscitata dallo strano riferimento al futuro,
curiosità certo stimolata dalle troppe letture
fantascientifiche e dalla comune passione per i telefilm di
Star Trek.
Ecco, tradotto in italiano per comodità del lettore, il
testo del messaggio che tutti e quattro abbiamo ricevuto:
LA MATERIA NON PUÒ VIAGGIARE NEL
TEMPO - L'INFORMAZIONE SÌ
Questo assunto, corollario della teoria di
Powell-Bandel, è stato dimostrato sperimentalmente nel
2026. E dal 2028 la CTI inc. costituisce l'indiscussa
società-leader nel settore del trasferimento temporale di
informazione.
Con l'obiettivo di espandere il nostro mercato a
Selezionati Clienti del periodo 2000-2005, il nostro sistema
esperto ha individuato il Suo nominativo all'interno delle
centinaia di milioni di schede registrate dalla nostra banca
dati.
Ora anche Lei può approfittare delle straordinarie
offerte informative della CTI inc.
Il Consistency of Information Act del 2029 vieta di
trasferire attraverso il tempo informazioni militari o
strategiche, informazioni economiche e finanziarie,
risultati di eventi sportivi e lotterie (inclusi i risultati
elettorali), informazioni riguardanti situazioni puramente
private di persone (esiti di matrimoni, informazioni
sanitarie ecc.), e numerose altre tipologie di dati. Ma -
grazie ai servizi della CTI inc. e a speciali accordi con i
detentori legali dei relativi diritti - Lei potrà leggere
oggi i maggiori classici della narrativa 2010-2020 (tutti in
edizione elettronica rigorosamente integrale, fatti salvi
gli inevitabili tagli previsti dal Consistency of
Information Act), ascoltare le canzoni della 'top ten' del
2011, o guardare Guerre Stellari, episodio XII (la
CTI inc. non assume alcuna responsabilità per il degrado
qualitativo imposto dal passaggio dall'alta definizione
olografica ai sistemi standard della Sua linea temporale).
Per dimostrarLe la qualità dei nostri servizi, ci
pregiamo inviarLe in visione totalmente gratuita alcuni
brani del volume Internet 2010, di M. Calvo, F. Ciotti, G.
Roncaglia e M.A. Zela. La diffusione di tali brani
nell'intervallo temporale 2001-2009 è stata autorizzata con
la seguente motivazione: "lo scarso rigore scientifico
dimostrato dagli autori rende improbabile un uso commerciale
dei dati forniti e la produzione di deviazioni significative
dalla linea temporale standard".
Ricordiamo comunque che - qualora le informazioni
fornite attraverso il ns. servizio dovessero portare alla
registrazione di brevetti o all'avvio di attività
economiche o commerciali - a partire dal 2029 gli autori,
purché in regola con i versamenti alla SIAE (Società
Intertemporale Autori ed Editori) - potranno reclamare i
relativi diritti alla luce della normativa all'epoca
vigente.
La consultazione dei ns. listini e l'acquisto di
contenuti informativi potranno essere effettuati presso la
filiale on-line della CTI inc. presente nella Vostra linea
temporale, utilizzando una normale carta di credito.
Il messaggio aveva un allegato, che ci ha dato molto da
penare: forse per una distrazione del mittente, risultava
infatti codificato in un misterioso formato 'Word 2009', che
il nostro Word 2000 si rifiutava ostinatamente di aprire.
Fortunatamente, a un'analisi più attenta il formato risultava
assai simile a quello di Word 5 per DOS: siamo dunque riusciti
a estrarre la maggior parte del suo contenuto.
Naturalmente, pensiamo a uno scherzo. Una rapida ricerca in
rete ci ha permesso di individuare numerose società dalla
sigla 'CTI', impegnate in attività di tutti i tipi - dal
turismo alla tessitura, dalle telecomunicazioni alle
assicurazioni - ma nessuna di esse sembra lontanamente
collegata al tema della singolare missiva testé citata. È
dunque solo per curiosità e divertimento, sperando
nell'indulgenza dei nostri lettori, che inseriamo in questo
libro il frammentario documento che segue, sul cui contenuto e
sulla cui attendibilità non assumiamo ovviamente
responsabilità alcuna.
Quanto alla SIAE (nel senso di 'Società Intertemporale
Autori ed Editori'), non abbiamo dubbi: se veramente esiste si
farà viva, prima o poi, e non riusciremo a evitare di pagare
i contributi richiesti.
Il collegamento fra sistema operativo e strumenti di rete
è ormai talmente stretto che non è possibile parlare di
Internet senza considerare anche le caratteristiche
dell'ambiente di lavoro utilizzato. E, a loro volta, le
caratteristiche di tale ambiente di lavoro sono sempre più
strettamente legate alle interfacce fisiche delle nostre
apparecchiature informatiche.
Per capire meglio il senso di questa affermazione,
chiediamo ai nostri lettori di seguirci in un breve excursus
storico. Fino ad alcuni anni fa - diciamo, fin verso il 2003 -
il termine 'computer' era legato a una connotazione piuttosto
specifica: una 'scatola' contenente le componenti informatiche
fondamentali (il microprocessore, la memoria, i dispositivi di
memoria di massa...) collocata sulla nostra scrivania o sotto
di essa e collegata a un monitor piuttosto ingombrante, a una
tastiera, a un mouse.
Quest'immagine, che era stata ereditata dai primi anni
dell'evoluzione dell'informatica personale, è tuttavia
entrata in crisi nell'ultimo decennio, attraverso un
rapidissimo processo di evoluzione e diversificazione delle
interfacce. È proprio cogliendo le caratteristiche innovative
di questo processo che nel 2006 la rivista Wired ha
dedicato un numero monografico divenuto ormai un 'classico'
alla Interface revolution.
Certo, esiste ancora un oggetto che la maggior parte di noi
identifica immediatamente con il termine 'computer': il
sottile monitor sensibile al tatto che appoggiamo sulla sua
base inclinata e colleghiamo alla tastiera quando lavoriamo a
casa, ma che possiamo staccare e infilare in borsa quando ne
abbiamo bisogno 'sul campo'. Un oggetto familiare, che
incorpora microprocessore e memoria, è perennemente connesso
alla rete attraverso la tecnologia UMDT[
1 ], ed è pronto ad ampliare le sue funzionalità
attraverso i moduli di espansione collegati alla base da
scrivania.
Ma computer è anche il Communicator che portiamo nel
taschino e che integra le funzioni che un decennio prima erano
state proprie dei telefonini e dei computer palmari (quando ci
si è finalmente accorti che non aveva senso costruire
Communicator troppo piccoli, dato che sotto una soglia minima
il loro schermo risultava in realtà inutilizzabile, ci si è
concentrati sulla leggerezza, sull'ergonomicità e sulla
resistenza agli urti, allargando invece lievemente il taschino
delle giacche e gli scomparti laterali delle borsette: un
notevole esempio di influsso della tecnologia sulla moda! Del
resto, a ben guardare l'ingombro totale non è aumentato di
molto, dato che per molti di noi il Communicator sostituisce
ormai, oltre al telefonino di un tempo, anche il vecchio
portafoglio). Computer è l'e-book che i nostri figli portano
ogni mattina a scuola al posto di libri e quaderni, e che
(magari nella versione rilegata in pelle) noi stessi usiamo
per leggere in poltrona le ultime notizie, un buon libro o la
nostra rivista preferita. Computer è l'impianto HC[
2 ] che in quasi tutte le case ha ormai sostituito
il televisore e lo stereo. Computer è il piccolo pannello che
in bagno o - più frequentemente - in cucina ci consente di
controllare gli elettrodomestici della casa, e che in macchina
ci informa in ogni momento sulla nostra posizione, sul
funzionamento della vettura, sulle condizioni della
viabilità.
Naturalmente, i microprocessori sono ancor più diffusi, e
se considerassimo come 'computer' ogni apparato dotato di un
microprocessore ci accorgeremmo di esserne completamente
circondati. Ma fra i 'computer' che abbiamo considerato sopra
e i mille 'oggetti intelligenti' dai quali siamo circondati
esiste una notevole differenza: i 'computer', pur nella
varietà di dimensioni e funzioni, tendono tutti ad utilizzare
un'interfaccia software ragionevolmente simile. Sappiamo così
che - sul nostro e-book o sul display da scrivania, sullo
schermo HC o su quello del Communicator - la piccola 'I'
azzurra racchiusa in un cerchio (un simbolo adottato dall'ISO
resistendo alle pressioni della Microsoft per l'uso del mondo
girevole che aveva caratterizzato le prime versioni di
Explorer) indica che il dispositivo è regolarmente collegato
alla rete, e che la 'I' rossa su un cerchio spezzato indica
(accade ormai sempre più raramente...) l'assenza di
collegamento. Sappiamo che su tutti questi dispositivi è
possibile utilizzare lo stesso modulo di riconoscimento vocale
e gli stessi comandi fondamentali, dato che ciascuno di essi
può richiamare e se necessario modificare le relative
librerie disponibili in rete, personalizzate attraverso
l'analisi del timbro e delle inflessioni della nostra voce.
Sappiamo infine che quelle che potremmo chiamare 'convenzioni
d'ambiente' (le rappresentazioni schematiche dei principali
strumenti di lavoro, dei documenti, dei brani audio o video,
dei messaggi di posta elettronica, della presenza o meno di
una connessione criptata e del suo livello di sicurezza, della
disponibilità finanziaria sul nostro borsellino elettronico e
così via) sono in linea di massima le stesse su tutti i
diversi 'computer' che usiamo.
Quanto detto finora spiega la nostra osservazione sul
rapporto fra interfacce e sistema operativo, e sullo stretto
collegamento fra quest'ultimo e gli strumenti di rete. In
passato, il sistema operativo era utilizzato su una tipologia
abbastanza standard di strumenti informatici: i computer
'vecchio tipo'. Oggi viene utilizzato su una gamma assai più
ampia di dispositivi, che comprende quantomeno tutti i diversi
'computer' che abbiamo ricordato sopra. Ed è importante che i
sistemi operativi di questi dispositivi adottino convenzioni
simili e possano comunicare fra loro: non solo per
semplificarne l'uso da parte degli utenti, ma anche per la
frequente necessità di utilizzare gli stessi strumenti (ad
esempio la conversazione audio e audio-video, la posta
elettronica, il borsellino elettronico, i nostri programmi
agente) su 'computer' diversi in situazioni diverse: in
macchina, alla scrivania, seduti in poltrona davanti
all'e-book o all'impianto HC, 'sul campo' attraverso il
Communicator...
Ecco dunque che il sistema operativo si è allargato: non
più semplice desktop, scrivania virtuale, ma vero e proprio
ambiente, vivo ed animato, capace di rispondere alle
necessità di un numero assai più ampio di interfacce, di
situazioni e di applicazioni. Questa evoluzione si è ben
presto riflessa nei nomi dati al sistema operativo: nel 2005
Microsoft ha ribattezzato col nome di Ambient il
vecchio sistema operativo Windows, e l'anno successivo - dopo
una lunga discussione all'interno della comunità Linux,
divisa al suo interno fra sollecitazioni e interessi assai
diversi - anche la maggior parte delle implementazioni di quel
sistema operativo si è dotata di un modulo 'd'ambiente',
denominato OpenSpace.
Proprio per la necessità di essere utilizzati su
interfacce dalle dimensioni e dalle funzionalità abbastanza
diverse, i sistemi operativi d'ambiente non si sono tuttavia
evoluti - come molti avevano profetizzato - verso l'uso della
piena tridimensionalità e della realtà virtuale. Le promesse
della realtà virtuale - come era già successo per quelle
dell'intelligenza artificiale - vengono mantenute in tempi
assai più lenti di quanto non si prevedesse una decina di
anni or sono, e gli occhiali-visore, per quanto migliorati e
assai più diffusi di un tempo, tendono ad essere utilizzati
solo in settori e per scopi piuttosto specifici.
Al posto della piena tridimensionalità, i sistemi
operativi d'ambiente preferiscono ricorrere alla
tridimensionalità 'fittizia' possibile su schermi comunque
bidimensionali, e a scelte grafiche influenzate dal mondo del
cinema e dei cartoni animati. Fra le metafore più utilizzate
restano la casa e la città, ma la varietà di ambientazioni
possibili (che sostituiscono quelli che un tempo erano i temi
del desktop e le skin delle sue principali componenti), molte
delle quali realizzate dagli stessi utenti attraverso
programmi quali Ambient Creator Plus, è davvero
notevole. In questa sede, faremo riferimento alle interfacce
standard di Microsoft Ambient (Computer Home) e di
OpenSpace (OpenCity), ma le osservazioni che faremo
resteranno ovviamente valide anche per gli utenti che abbiano
scelto di personalizzare diversamente il proprio ambiente di
lavoro.
Un discorso analogo vale per una componente sempre più
importante delle interfacce d'ambiente: gli agenti software
che - anche grazie alle sempre più notevoli capacità di
sintesi e riconoscimento vocale - ci aiutano a svolgere la
maggior parte dei nostri lavori in rete. Un campo nel quale le
mode del momento propongono un'estrema variabilità, ma che
continua a vedere molti utenti affezionati ai vecchi Holmes e
Bogart offerti come standard da Ambient, e all'inquietante
androide di OpenSpace.
[...]
Nel mondo dei Communicator, la guerra commerciale in corso
ormai da tempo fra gli standard Comma (basato sul
sistema operativo Microsoft Ambient) e ComPal (basato
su OpenSpace e prodotto di punta della iN-Palm, l'azienda nata
nel 2005 dalla fusione fra Palm e Nokia) continua a costituire
lo sfondo dell'incessante annuncio di nuovi servizi. L'anno
scorso, il servizio Hollywood messages proposto da
Comma, con la possibilità di inviare messaggi recitati in
video dai 'replicanti sintetici' di una nutrita serie di
personaggi del mondo dello spettacolo (dai grandi divi del
passato alle star più recenti del mondo giovanile), ha
letteralmente spopolato sui Communicator di mezzo mondo,
mentre come risultato della convenzione fra la iN-Palm e la
NASA (e della sapientissima campagna pubblicitaria e mediatica
lanciata dalle due società) si calcola che dal febbraio di
quest'anno una buona metà dei ComPal sia impostata per
mostrare, all'accensione dello schermo, le immagini in diretta
della prima spedizione umana su Marte.
Ma la componente forse più interessante della guerra
commerciale fra sistemi Comma e ComPal è rappresentata dagli
strumenti di rete messi a disposizione, a cominciare dalle
dimensioni e dalle funzionalità della Virtual Library
offerta gratuitamente in rete ai propri utenti. In entrambi i
casi è stata ormai superata la soglia di un Terabyte per
utente, con la possibilità di ospitare e inviare a richiesta
verso il Communicator (ma anche verso l'e-book e più in
generale verso tutti gli altri dispositivi collegati alla
rete) un'immensa quantità di brani musicali, film e testi.
Numerosi analisti hanno sottolineato lo spreco di risorse
insito in un sistema di questo genere, che porta a duplicare
inutilmente, centinaia di migliaia di volte, gli stessi file
(si calcola ad esempio che l'ultima collection dei Neural
Enemies sia presente nella Virtual Library di oltre 6 milioni
di utenti). Sembra tuttavia che il fascino di conservare i
propri file nel 'proprio' spazio, nel proprio recinto di
memoria, protetto dal proprio sigillo digitale, prevalga su
tutte le considerazioni di carattere pratico e funzionale: una
delle lezioni che possiamo trarre a questo riguardo è che,
nonostante gli incredibili sviluppi degli ultimi decenni, la
fame di memoria informatica è ancora ben lontana dall'essere
soddisfatta!
Ovviamente, la gestione di una Virtual Library così larga
impone l'uso di strumenti sofisticati per l'organizzazione e
la ricerca dei file. Nei sistemi Ambient, Microsoft Holmes si
occupa dell'interazione fra l'utente e la sua Virtual Library,
e non c'è utente che non disponga fra i propri file musicali
di almeno un brano per violino, per godersi lo spettacolo di
vederlo eseguire dalla piccola figura del famoso detective,
sapientemente animata. Quanto all'OpenSpace Droid, il suo
punto di forza è nel sofisticato modulo di intelligenza
artificiale, che riesce spesso ad anticipare le nostre
richieste analizzando il contesto, l'ora della giornata, le
nostre abitudini, e le operazioni effettuate immediatamente
prima. Anche se i continui suggerimenti del Droid, per quanto
spesso azzeccati, possono alla lunga risultare piuttosto
petulanti!
Naturalmente, a offrire le comodità di una Virtual Library
non sono solo la Microsoft e la iN-Palm, ma anche numerose
società terze, collegate all'immenso mercato degli acquisti
di e-book, e-music, e-news ed e-video. Non si tratta tuttavia
di un mercato facile, e dopo un periodo iniziale
caratterizzato da una vera e propria esplosione di offerte, il
processo di concentrazione è ormai evidente. Un processo
favorito anche dalle polemiche e dagli infiniti strascichi
giudiziari legati a episodi come la completa cancellazione
(non è ancora chiaro se dovuta a un guasto accidentale o a un
atto di cyberterrorismo) delle oltre 400.000 caselle di
Virtual Library ospitate dalla YourLib, dal conseguente
fallimento di tale società e dal successivo - e temporaneo -
crollo dei valori borsistici della maggior parte delle
società del settore.
Ma la competizione sui servizi per Communicator non
riguarda solo la Virtual Library. Ormai da diversi anni
strumenti come PalMap, basati sull'uso del GPS, ci
consentono di verificare in ogni momento sullo schermo del
Communicator - con un margine di errore di poche decine di
centimetri - la nostra esatta localizzazione geografica,
completa di mappe delle strade vicine. Negli ultimi anni a
questa funzione di puro orientamento geografico si sono
aggiunti un'infinità di servizi 'accessori': da AroundYou,
che - se attivato - bombarda lo schermo del nostro
Communicator con informazioni sulle principali attrattive
turistiche del luogo in cui ci troviamo ma soprattutto con
pubblicità e offerte relative a negozi, ristoranti, cinema e
teatri dei dintorni, a PalTrace, che ci consente di
seguire minuto per minuto gli spostamenti dei nostri amici di
rete (o almeno di quelli fra loro meno sensibili alla difesa
della loro privacy). Uno strumento, quest'ultimo, che ha
provocato innumerevoli e giustificate polemiche (anche
giudiziarie): fino a che età, ad esempio, i genitori possono
imporre ai figli di attivare servizi di questo genere in modo
da seguirne ogni singolo spostamento? Naturalmente, la
funzione di 'tracciamento' è in partenza disattivata su ogni
Communicator, e comunque la rete pullula di programmi quali TraceHack
che permettono di 'ingannare' con una certa facilità la
maggior parte dei sistemi di controllo di spostamenti basati
su GPS.
Molti fra i servizi offerti dai Communicator dipendono
dall'uso di moduli hardware aggiuntivi, e sia lo standard
Comma sia lo standard ComPal offrono la possibilità di
'agganciarsi' a moduli di espansione, spesso prodotti da terze
parti. Il più diffuso è probabilmente il modulo video, che
trasforma il Communicator in una piccola cinepresa e macchina
fotografica digitale (con la possibilità di salvare
automaticamente nella nostra Virtual Library le immagini o i
filmati acquisiti). A sua volta, la disponibilità di questi
moduli ha portato allo sviluppo di una offerta assai variegata
di servizi, alcuni dei quali decisamente originali e talvolta
assai discutibili. Il più noto è probabilmente Global
VideoNet: i due giovani registi underground ai quali si
deve l'idea sono diventati plurimiliardari in pochi mesi, e
nell'immensa sala di regia di Global VideoNet a Seattle
lavorano ormai migliaia di persone. L'idea di base è
semplice: trasformare ogni utente fornito di Communicator e
modulo video in una sorta di 'inviato speciale' permanente, in
grado di trasmettere audio e video. Chi si trovi in una
situazione considerata 'interessante' dal punto di vista
giornalistico o spettacolare può 'chiedere la linea' e
inviare l'audio e il video catturati dal suo Communicator alla
regia del programma: dall'attentato all'incidente stradale,
dalla catastrofe naturale all'incontro casuale con una star
del cinema, tutto può fare spettacolo per Global VideoNet, la
cui regia seleziona minuto per minuto i contenuti ricevuti e
li trasmette attraverso i propri programmi (ormai numerosi, e
differenziati sia su basi tematiche sia rispetto alle aree
geografiche coperte). Per evitare il sovraccarico delle regie
- alle quali le segnalazioni arrivano comunque dopo una
'catena' di veloci filtraggi da parte di una folta schiera di
addetti - un complesso sistema di punteggi premia chi fornisce
i contenuti migliori e sanziona (fino alla disattivazione
della connessione a VideoNet) chi propone contenuti
considerati poco interessanti.
Non stupisce che lo sviluppo di servizi come PalTrace o
Global VideoNet ponga inquietanti interrogativi sulla difesa
della privacy e sulla qualità dei contenuti informativi
trasmessi attraverso la rete. L'argomento meriterebbe
senz'altro una discussione più ampia di quella possibile in
questa sede: ci limiteremo ad osservare come l'idea romantica
secondo cui la capacità di 'dar voce' ai singoli utenti
propria di Internet garantisse di per sé la democraticità e
l'interesse qualitativo della comunicazione di rete, si sia
dimostrata per molti versi fallace.
[...]
Fino ad alcuni anni or sono, la discussione relativa
all'influsso dei nuovi media e della rete sulle pratiche di
scrittura, e in particolare sulla scrittura letteraria, si
concentrava soprattutto su due tematiche: la novità
introdotta dall'uso degli strumenti ipertestuali, e il futuro
del libro a stampa.
Di fronte a questi temi, tendevano a formarsi due
schieramenti spesso vivacemente contrapposti: uno, che
indicheremo solo per comodità con l'etichetta di 'conservatori',
tendeva a rifiutare in entrambi i casi l'esistenza di un
'cambiamento di paradigma' rispetto alle pratiche tradizionali
di scrittura (e di lettura). Riguardo alla scrittura
ipertestuale, i 'conservatori' tendevano a sottolineare da un
lato la presenza di forme implicite o embrionali di
ipertestualità anche nella tradizione letteraria precedente
la rivoluzione informatica, e dall'altro lo scarso interesse
narrativo di una modalità di organizzazione testuale che
porterebbe l'autore a 'perdere il controllo' sulla sua
narrazione, e impedirebbe al lettore di 'abbandonarsi' al
flusso della narrazione stessa. A conferma di tali tesi veniva
spesso portata la scarsa qualità letteraria, e l'ancor minore
diffusione effettiva all'interno del pubblico dei lettori, dei
primi esempi di produzione letteraria ipertestuale.
Quanto al futuro del libro a stampa, i 'conservatori' non
avevano dubbi: chi può pensare seriamente di leggere un libro
davanti allo schermo di un computer? Il libro deve poter
essere letto in poltrona, a letto, nella vasca da bagno, in
spiaggia... e da questo punto di vista il buon vecchio libro a
stampa restava, sostenevano i 'conservatori', assolutamente
insostituibile. Del resto, argomentavano, non è forse vero
che la rivoluzione informatica ha avuto fra i suoi effetti
collaterali il più straordinario aumento di produzione
cartacea mai osservato nella storia dell'umanità?
Il secondo schieramento, per il quale - nuovamente senza
alcuna connotazione valutativa - useremo l'etichetta di 'rivoluzionari',
sosteneva tesi diametralmente opposte: la scrittura
ipertestuale liberava finalmente il lettore dalla secolare
soggezione al dominio dell'autore, scardinava le barriere
troppo rigide della linearità espositiva, consentiva lo
sviluppo di una letteratura nuova, nella quale la pluralità
di prospettive e di punti di vista insita in ogni costruzione
narrativa poteva trovare finalmente un'e-spressione anche
strutturale. Il modello rappresentato dalla narrazione
lineare, che aveva raggiunto il proprio apice nei grandi
romanzi ottocenteschi ed era già stato messo in crisi dalle
avanguardie letterarie del Novecento, era destinato a
soccombere definitivamente davanti alle nuove possibilità
aperte dall'ipertestualità e dalla multimedialità.
Quanto al libro a stampa, i 'rivoluzionari' non avevano
dubbi: il testo elettronico l'avrebbe soppiantato in pochi
anni. Perché utilizzare un supporto limitato al testo scritto
e alle immagini statiche, quando sullo schermo del computer
possiamo integrare suoni e immagini? Perché dare in mano ad
un bambino un libro a stampa, quando un buon videogioco
educativo può fornirgli materiale di apprendimento e
riflessione in forme assai più ricche e più vicine alla sua
esperienza quotidiana?
Accanto ai 'conservatori' e ai 'rivoluzionari' trovava poi
spazio una terza posizione, caratterizzata da convinzioni che
per loro stessa natura portavano, più che all'impegno attivo
in uno dei due schieramenti, all'abbandono sconsolato del
campo di battaglia. Per i difensori di tale posizione, che
potremmo etichettare come 'apocalittica' o 'catastrofista', i
conservatori avevano ragione dal punto di vista teorico, ma i
rivoluzionari - aiutati dal generale imbarbarimento culturale
dovuto in gran parte proprio all'influsso dei nuovi media - si
preparavano, disgraziatamente, a vincere sul campo.
A dieci anni di distanza, la contrapposizione fra questi
schieramenti - che apparivano così radicalmente alternativi -
si è almeno in parte attenuata. In compenso, nuove e vivaci
polemiche si sono sviluppate proprio sul terreno specifico
della produzione narrativa.
Per capire le ragioni di questo sviluppo, possiamo partire
dalla ricerca dei vinti e dei vincitori nella contrapposizione
fra 'conservatori' e 'rivoluzionari'. In termini molto
generali (e necessariamente approssimativi), possiamo dire che
i conservatori avevano torto nella difesa a oltranza del libro
a stampa, e ragione nel mettere in discussione le virtù
letterarie quasi salvifiche della scrittura ipertestuale.
Simmetricamente, i rivoluzionari avevano ragione nel sostenere
l'imminenza e il rilievo culturale del passaggio dal libro a
stampa al libro elettronico, e torto nel ritenere che questo
passaggio implicasse automaticamente un abbandono
generalizzato della linearità della narrazione.
Sulla questione del futuro del libro, il punto delicato era
rappresentato proprio dalla pervasività dell'immagine
'tradizionale' di computer sulla quale ci siamo già
soffermati altrove. Per i conservatori, 'testo elettronico'
equivaleva a 'testo che richiede di essere letto su un
computer', e il modello di computer (e soprattutto di schermo)
al quale fare naturale riferimento era quello ereditato
dall'origine dell'informatica personale: ingombrante, pesante,
legato soprattutto all'uso da scrivania, stancante per la
vista. I computer portatili dell'epoca restavano
sostanzialmente versioni 'ridotte e alleggerite' del computer
da scrivania, ma non erano certo comodi strumenti di lettura:
non rappresentavano dunque un controesempio valido
all'asserita scomodità della 'lettura al computer'. Né un
controesempio valido poteva essere fornito dai primi computer
palmari, troppo piccoli e dallo schermo poco leggibile.
Solo fra il 2001 e il 2002 cominciarono a diffondersi i
primi strumenti di lettura per testi elettronici capaci di
essere utilizzati, come chiedevano i tradizionalisti, anche a
letto o in poltrona. Si trattava dei palmari 'evoluti', dotati
di uno schermo ancora piccolo ma di buona leggibilità. La
funzione di libro elettronico non era certo né l'unica né la
principale fra quelle loro affidate, ma veniva comunque svolta
attraverso l'uso di software specifici. E solo negli anni
successivi, dall'incrocio fra la linea evolutiva di questi
palmari (che si avviavano a diventare i Communicator di oggi)
e quella di prodotti pionieristici ma scarsamente diffusi come
i lettori e-book RCA, si sviluppavano anche gli e-book:
strumenti delle dimensioni e del peso del tutto paragonabili a
quelli di un normale libro a stampa ma capaci di consentire
l'accesso a una libreria smisurata di testi, suoni e filmati,
permettendone la lettura su uno schermo ad alta risoluzione
più ampio e leggibile di quello di un Communicator ma più
piccolo, leggero e resistente di un display da scrivania.
Certo, la funzione di lettura dei libri elettronici
continua a non essere l'unica (anche se ormai è fra le
principali) assegnata all'e-book. Molti di voi ricorderanno,
un paio di anni fa, la pubblicità di SplashBook, il
primo e-book impermeabile, e dunque il primo lettore di libri
elettronici a vincere la sfida più difficile, quella della
lettura in spiaggia o nella vasca da bagno: una giovane
fanciulla in un ridottissimo due pezzi, adagiata su un
materassino fra le onde di una qualche spiaggia tropicale,
intenta ad utilizzare il suo e-book non già per leggere un
libro, ma... per guardare la televisione!
In ogni caso, almeno nell'Occidente industrializzato gli
e-book stanno effettivamente e progressivamente scalzando il
libro a stampa come supporto privilegiato per la lettura di
testi. Naturalmente questo non vuol dire che i libri a stampa
siano scomparsi o si avviino a scomparire nell'immediato
futuro: la fase di transizione richiederà comunque qualche
decennio. Ma è interessante notare come già adesso la stampa
di libri su carta tenda a concentrarsi sulle due fasce
'estreme' dei libri d'arte da un lato, e dei supereconomici
dall'altro: tra il 2006 e il 2010, praticamente tutte le case
editrici universitarie nordamericane ed europee hanno
completamente abbandonato la stampa su carta a favore di
edizioni esclusivamente elettroniche. E lo stesso processo sta
interessando la pubblicazione di giornali e riviste: secondo i
dati ISTAT anche in Italia, negli ultimi quattro anni, più di
un terzo dei quotidiani e delle riviste registrate ha chiuso
definitivamente la propria edizione a stampa.
Quanto all'apparente paradosso dell'aumento di produzione
cartacea che ha accompagnato i primi anni della rivoluzione
informatica, sembra ormai possibile identificarne l'origine
proprio in un problema di scelta dell'interfaccia di lettura.
Quando l'interfaccia di lettura privilegiata per
l'informazione in formato digitale era un monitor scomodo,
ingombrante e soprattutto difficile da spostare, la reazione
naturale era quella di cercare di trasferire su un supporto
più comodo l'informazione da consultare, o almeno quella
parte che poteva essere trasferita in maniera più semplice:
l'informazione scritta. E quale supporto migliore della carta,
leggerissima, economica, facilmente leggibile‚ già
familiare, semplice da eliminare una volta utilizzata?
Risultato: la naturale tendenza a 'stampare tutto lo
stampabile'. Ecco dunque che l'impiego di carta negli uffici
cresceva in parallelo con l'aumento di disponibilità
informativa garantita dall'impiego degli strumenti informatici
e telematici.
Tuttavia non era vero, come sostenevano i conservatori, che
la carta costituisse un supporto intrinsecamente migliore di
qualunque schermo di computer: costituiva semplicemente un
supporto migliore degli schermi di computer disponibili
all'epoca. Con lo sviluppo dei display supersottili e
superleggeri e degli e-book, la produzione cartacea tende, pur
se lentamente, a ridursi. Certo, siamo ancora lontani dal paperless
office che negli anni '80 del secolo scorso qualcuno
immaginava dietro l'angolo, e ciascuno di noi continua ad
utilizzare - seppur più raramente - la stampante posata su un
angolo della scrivania. Ma la linea di tendenza, sul lungo
periodo, sembra ormai segnata.
D'altro canto, a questa evoluzione non si è affatto
accompagnata, come alcuni profetizzavano, l'affermazione
generalizzata del modello rappresentato dall'organizzazione
ipertestuale dell'informazione. Anzi, ci si è
progressivamente resi conto che non esiste un modello
di organizzazione ipertestuale dell'informazione. Fra i due
poli rappresentati dalla pura linearità e dall'ipertestualità
più complessa e ramificata esistono infatti numerosi livelli
intermedi: un'enciclopedia, una guida turistica o un manuale
tecnico faranno utilmente ricorso a strutture ipertestuali
complesse, un saggio o un manuale scolastico (altro genere del
quale con troppa facilità si era preconizzata l'estinzione!)
potranno trarre giovamento da una struttura ipertestuale meno
complessa e comunque indirizzata lungo un percorso 'orientato'
di progressiva acquisizione di competenze. Quanto alla
produzione più propriamente letteraria, anche se nessuno
contesta l'interesse dei tanti esempi di sperimentazione
ipertestuale che continuano ad essere proposti, vi sono ormai
davvero pochi dubbi sul fatto che la narrativa continui a
preferire forme di testualità fondamentalmente lineari.
Come accennavamo, i conflitti e le contrapposizioni
teoriche non si sono comunque sopiti, anche nel campo
specifico dei rapporti fra letteratura e nuovi media. Il tema
al centro del dibattito non è tuttavia più quello dell'ipertestualità,
ma quello della realizzazione di opere letterarie in qualche
misura 'ibride' fra la testualità scritta e l'uso di
strumenti visivi e sonori mutuati da modelli cinematografici e
televisivi.
L'e-book, come sappiamo, permette di affiancare al testo
non solo immagini, ma anche suoni e filmati. Perché non
sfruttare questa possibilità per integrare più strettamente
nella narrazione elementi visivi e sonori? Già negli anni
'90, questa integrazione è stata sperimentata soprattutto
nella realizzazione di testi e giochi elettronici destinati
all'infanzia, ma ben presto ci si è resi conto che non vi era
alcun motivo per non estendere - nelle forme opportune -
l'impiego di suoni e brani video anche in opere destinate a un
pubblico adulto. Non era qui in questione l'ovvia comodità di
disporre di inserti sonori e filmati in opere di riferimento
quali enciclopedie o dizionari, quanto l'allargamento a codici
diversi dalla sola scrittura nell'ambito di opere a pieno
titolo narrative. Di questo allargamento si è fatta
inizialmente portavoce una innovativa collana 'popolare'
americana, Experience-it!, che in pochi anni ha
conosciuto un'immensa diffusione - anche attraverso le molte
versioni nazionalizzate - ed è risultata la capostipite di
un'infinità di esperimenti e realizzazioni analoghe.
In qualche misura paragonabile a una versione digitale
della letteratura 'pulp' americana degli anni '30 e '40 dello
scorso secolo, Experience-it! propone testi elettronici
'a tinte forti' nei quali la lettura è accompagnata da
effetti sonori e visivi studiati per sorprendere e coinvolgere
il lettore. Due esempi 'nobili' basteranno a ricordare il tipo
di opere alle quali facciamo riferimento. In Only the
Murder Knows, Stephen King utilizza una ossessiva e
lontana musica di sottofondo, che accompagna il lettore
dall'inizio della narrazione e cresce progressivamente di
volume fino all'urlo finale della vittima. Le ultime parole
dell'e-book restano sullo schermo per pochi secondi, prima che
l'immagine si trasformi in un vero e proprio fiume di sangue.
Dal canto suo, nel recente Timing Out, Tom Clancy
introduce ogni capitolo attraverso il video del notiziario CNN
(ovviamente fittizio) che segue ora per ora l'incalzante
vicenda descritta dal romanzo.
Esperimenti di questo genere non potevano non provocare un
dibattito assai acceso. Da un lato, vi è chi sostiene che
l'inserimento di brani audio e video tolga spazio
all'immaginazione del lettore, e tenda a trasformare il libro
nella brutta copia di un film. Dall'altro, quello che è ormai
conosciuto come il movimento 'Experience' (un movimento che
comprende, in una strana alleanza, non solo scrittori
'commerciali' ma anche una folta schiera di autori underground
o sperimentali, pronti a citare fra i propri riferimenti
teorici esempi dell'avanguardia novecentesca come il romanzo Nadja
di Breton) vanta i meriti di un uso sapiente della
multimedialità all'interno della narrazione come strumento
per aumentare il coinvolgimento del lettore e, in ultima
analisi, la stessa capacità 'immaginifica' del libro.
[...]
In quale direzione si sta muovendo la televisione,
nell'epoca della rete globale? Nella prima metà dell'ultimo
decennio, la confusione ha regnato sovrana: una babele di
tecnologie diverse (digitale satellitare - senza e con canale
di ritorno -, analogico terrestre, digitale terrestre via
etere, digitale terrestre via cavo, digitale via rete, il
tutto nei formati 4:3 e 16:9, in chiaro o criptato utilizzando
gli standard più vari...) tra le quali gli utenti avevano
notevoli difficoltà a orientarsi. Come è noto, questa
confusione ha in parte rallentato la diffusione delle nuove
tecnologie in campo televisivo e - fattore non meno rilevante
- ha rallentato la riflessione e la sperimentazione sui format
televisivi adatti a sfruttare al meglio le possibilità
offerte dal digitale. Anche perché, dopo essersi lanciati in
investimenti e campagne pubblicitarie dai costi tutt'altro che
trascurabili, molti fra gli operatori del settore venivano a
trovarsi privi dei mezzi finanziari necessari a sostenere una
programmazione quotidiana di qualità.
È solo negli ultimi anni, con l'avvio del processo di
integrazione delle diverse tecnologie disponibili, che anche
nel travagliato settore televisivo cominciano a delinearsi
nuovi equilibri.
Per comprendere questo processo, occorre partire dallo
standard IDN (Integrated Digital Network), del quale ci siamo
occupati già altrove nel volume[
3 ] e che permette di integrare fra loro tutti i
canali capaci di veicolare informazione digitale, televisiva e
non: digitale terrestre, satellitare e rete Internet.
Attraverso IDN il segnale digitale di un singolo programma
televisivo può - come già succedeva per tutta l'informazione
trasmessa via Internet - viaggiare attraverso canali fisici
diversi (ad esempio, via satellite e via cavo) per 'ricompattarsi'
una volta giunto a destinazione. La centralina IDN - che
secondo le previsioni troveremo entro il 2015 in quasi tutte
le case - funge da vero e proprio 'coordinatore' di questo
traffico di dati, gestendo la distribuzione all'impianto HC
(collegandosi con il relativo decoder) della musica e dei
programmi televisivi, ma anche il traffico Internet di tutti
gli strumenti che utilizziamo per connetterci alla rete. Anche
il nostro Communicator, pur lavorando sempre in tecnologia
UMDT, quando siamo a casa utilizza prioritariamente il segnale
emesso dalla centralina IDN, commutando sul segnale UMTS-2
quando ci allontaniamo.
Collegando direttamente il decoder dell'impianto HC con il
nostro borsellino elettronico, la centralina IDN ha
enormemente semplificato la ricezione dei programmi contenuti
negli immensi archivi pay per view dei principali operatori;
appositi plug-in disponibili sia per Microsoft Ambient sia per
OpenSpace permettono ai nostri agenti software di guidarci
nella scelta all'interno dell'offerta televisiva disponibile e
di occuparsi della richiesta del relativo flusso dati. Ed è
ancora IDN a garantire il 'canale di ritorno' verso
l'operatore dal quale riceviamo i dati, permettendo di
sfruttare le caratteristiche di interattività proprie di
moltissime trasmissioni, a cominciare dai programmi
giornalistici e dalle dirette sportive, anche a chi non
dispone del canale di ritorno satellitare in banda Ka[
4 ].
La televisione interattiva, dunque, è ormai una realtà.
Ma come viene usata?
Il dato più rilevante è certo la diffusione dell'acquisto
di contenuti pay per view. Dieci anni fa, ad esempio, pochi
avrebbero immaginato che una catena come Blockbuster avrebbe
finito per chiudere tutti i propri negozi di noleggio di
videocassette e DVD, diventando in compenso uno dei principali
protagonisti del mercato televisivo del pay per view.
L'esplosione del fenomeno pay per view ha determinato
cambiamenti profondi nel concetto tradizionale di 'canale
televisivo': al centro dell'attenzione dello spettatore non
sono più i canali ma i programmi, ed è direttamente ai
programmi, o alle offerte coordinate di programmi, che si
rivolgono ormai gli stessi investimenti pubblicitari. Chi si
domandava se lo sviluppo del mercato televisivo avrebbe visto
prevalere il modello rappresentato dai canali generalisti o
quello rappresentato dai canali tematici, ha così trovato una
risposta almeno in parte inattesa: esistono, e hanno fortuna,
sia programmi 'generalisti' sia programmi 'tematici', ma i
'canali' che li ospitano corrispondono ormai più ad archivi
facilmente navigabili che al tradizionale modello
caratterizzato da un palinsesto organizzato in maniera
lineare.
Fra i programmi, quelli che hanno tratto maggiori vantaggi
dall'uso di strumenti interattivi, e che si sono rivelati uno
dei maggiori 'business' del settore pay per view, sono le
dirette di ogni genere: giornalistiche, sportive, ma anche
legate a format particolari come quello della già ricordata Global
VideoNet. Una interattività comunque condizionata dalla
necessità di trovare sistemi 'naturali' e poco faticosi per
permettere la scelta da parte del telespettatore, che ha
mostrato chiaramente di preferire contenuti già almeno
parzialmente organizzati a contenuti che richiedono un impegno
continuo nella selezione delle varie opzioni. Perfino nel caso
delle notizie del telegiornale, che per il loro carattere
modulare si prestano particolarmente bene ad operazioni di
selezione e organizzazione da parte dello spettatore, si è
osservato che a fronte di un 25% di utenti che adottano la
modalità 'riepilogo e selezione' (ascoltando il breve
riepilogo delle notizie del giorno e selezionando attraverso
il telecomando quelle per le quali si desidera ricevere
servizi e approfondimenti), il 75% continua a preferire la
tradizionale, e meno faticosa, presentazione lineare dei
contenuti.
[...]
Fino a una decina di anni fa, il pericolo rappresentato dai
virus o dall'intrusione di 'pirati informatici' nei nostri
sistemi informativi, pur se tutt'altro che trascurabile,
poteva almeno essere gestito in sede 'locale' dai singoli
utenti. In altri termini: il computer di ciascuno di noi era
soggetto a rischi ed attacchi, ma potevamo anche organizzarne
la difesa, ragionevolmente sicuri della solidità della
piccola 'roccaforte' eretta attorno ai nostri dati attraverso
l'uso di un buon antivirus e di un buon programma firewall. I
danni provocati da virus e pirateria informatica sui computer
degli altri, danni causati quasi sempre dall'assenza di poche
e semplici misure difensive, non ci coinvolgevano
direttamente, e suscitavano al massimo la nostra curiosità.
Con il progressivo sviluppo della rete e l'uso sempre più
frequente di strumenti differenziati di collegamento - dal
computer da scrivania al Communicator, dall'e-book
all'impianto HC - è divenuto indispensabile utilizzare
'depositi' in rete capaci di ospitare i nostri dati e i nostri
moduli software in maniera indipendente dai singoli
dispositivi utilizzati di volta in volta per accedervi. Come
risultato, la quantità dei nostri dati che viene fisicamente
ospitata all'interno di un sistema sotto il nostro diretto
controllo tende a diminuire (anche se questo non implica
affatto, come pensavano erroneamente i primi profeti del
'network computing', una diminuzione nelle esigenze di memoria
o di capacità di calcolo degli strumenti informatici che
impieghiamo per richiamare ed utilizzare quei dati). Un numero
crescente di servizi - a cominciare dalla nostra Virtual
Library - dipende così dalla conservazione di dati, profili
utente, preferenze, moduli software, in dispositivi di memoria
di massa dei quali ci sfugge perfino la collocazione
geografica, e la cui sicurezza non dipende da noi.
Certo, in molti casi questo si traduce in un aumento e non
in una diminuzione della sicurezza, dato che a gestire questi
spazi sono di norma società altamente professionali, i cui
spazi macchina sono protetti da solidi firewall e garantiti da
periodici backup. L'esperienza rappresentata dal fallimento di
YourLib e dai conseguenti strascichi giudiziari dimostra
inoltre che l'assoluta sicurezza dei dati costituisce un
fattore essenziale per la stessa sopravvivenza di molti di
questi servizi.
D'altro canto, sarebbe semplicistico pensare che non
esistano problemi. Da un lato, queste immense basi di dati
costituiscono ormai una risorsa dotata di vero e proprio
valore strategico: gli attacchi informatici alle principali
società di gestione dati non conoscono tregua, e - per quanto
l'argomento sia protetto da una solidissima cortina di
segretezza - le inchieste condotte dall'agenzia americana NSA
sembrano indirizzare almeno in alcuni casi verso
organizzazioni terroristiche ramificate, piuttosto che verso
hackers isolati. L'attentato del 2008 alla sede di Costanza
della tedesca Datenschutz e la serie di attentati che nel 2009
ha interrotto per diverse ore le principali dorsali Internet
israeliane, dimostrano del resto che a proteggere le banche
dati e le infrastrutture di rete non basta la sola sicurezza
informatica. La consapevolezza ormai generalizzata della
centralità strategica della rete è emersa chiaramente anche
nella recente sollevazione popolare in Perù, nel corso della
quale il primo edificio occupato dagli insorti non è stato
né il parlamento né il palazzo della televisione ma il
principale nodo di rete della capitale.
Ma forse ancor più rilevante è l'altro aspetto del
problema, rappresentato dal controllo dei dati e dalla
protezione della privacy. Nonostante le tranquillizzanti
assicurazioni ufficiali al riguardo, vi sono pochi dubbi sul
fatto che spesso agenzie governative e servizi segreti, e
talvolta anche i servizi informativi di alcune fra le maggiori
multinazionali, abbiano accesso a dati che rivelano ormai
davvero moltissimo su ciascuno di noi, sui nostri gusti, sulle
nostre attività. In altri termini: non vi è solo chi cerca
di distruggere i nostri dati; vi è anche chi tenta di
conoscerli per controllarci meglio.
Numerosi esempi dimostrano che non si tratta di eccessivo
allarmismo. Così, per citare solo uno dei casi più discussi,
il sofisticato agente software scoperto in maniera del tutto
casuale all'interno di una delle principali banche dati dell'iN-Palm
sembrava avere come propria funzione principale quella di
analizzare, copiare e trasmettere grandi quantità di dati
verso un sito esterno che non è mai stato possibile
individuare con certezza, ma che sembrava utilizzare una
dorsale dati governativa. E la programmazione di tale agente
è sembrata agli esperti che l'hanno esaminata decisamente
troppo sofisticata per essere opera di pochi hackers. La morte
in circostanze misteriose di uno dei periti informatici che
avevano partecipato all'inchiesta, associata alla scomparsa di
una porzione significativa del codice che era stato
disassemblato, non hanno fatto che aggiungere ombre a un caso
decisamente inquietante.
Certo, i sistemi di criptatura associati ai sigilli
elettronici personali costituiscono una difesa contro queste
intrusioni. Ma si tratta di una difesa che - pur tecnicamente
valida - si rivela in molti casi praticamente vulnerabile.
Basti considerare che, a quanto risulta da una ricerca
abbastanza attendibile, oltre il 70% degli utenti della rete
conserva le chiavi dei propri sigilli elettronici... sulla
rete stessa, facile preda degli agenti software che possono
essere lanciati alla loro ricerca. In altri termini: gli
algoritmi di criptatura sono ragionevolmente affidabili e
sicuri, ma il vero punto debole del sistema è rappresentato
dall'incompetenza dei loro utenti.
[...]
Fine
[
1 ] |
Una sigla che non sapremmo
sciogliere. Potrebbe trattarsi di qualcosa di simile a
Universal Mobile Data Transmission (nota del 2001). |
[
2 ] |
Immaginiamo che la sigla
si riferisca a 'Home Cinema': un impianto composto da
uno schermo piatto a parete di grandi dimensioni e una
sezione audio capace di creare un ambiente sonoro
avvolgente (nota del 2001). |
[
3 ] |
Presumibilmente, in
sezioni del testo che non ci sono pervenute o che non
siamo riusciti ad estrarre dal file originale (nota del
2001). |
[
4 ] |
L'uso della banda Ka, del
quale si parla già oggi, dovrebbe permettere di
utilizzare impianti satellitari lievemente modificati
rispetto a quelli attuali - ma comunque non troppo
costosi - per inviare dati verso il satellite sul quale
siamo sintonizzati, oltre che per riceverne, migliorando
in tal modo le possibilità di interazione offerte dalle
trasmissioni satellitari (nota del 2001). |
|