lunedì 7 marzo 2016

New Web e ignoranza 2.0



Lo sviluppo di Internet dell’ultimo ventennio è stato, senza dubbio, impressionante. Viene il sorriso a pensare alle nostre passate abitudini: chi cercherebbe oggi un ristorante tramite un elenco telefonico o un itinerario su uno stradario? Non si è trattato, però, soltanto di uno sviluppo della Rete, ma anche di uno sviluppo nella Rete: dagli inizi del 2000 in poi si è passati da un web statico (Web 1.0) ad un web dinamico (Web 2.0). Il primo, diffuso fino agli anni ’90, era composto prevalentemente da siti web statici senza alcuna possibilità di interazione ad esclusione della normale navigazione ipertestuale delle pagine, l’uso della posta elettronica e dei motori di ricerca.
Il termine Web 2.0[1], invece, fu utilizzato per la prima volta durante la “Web 2.0 conference” alla fine del 2004. Nascono così una serie di applicazioni online che consentono un elevato livello di interazione tra web e utente: si pensi, ad esempio, ai blog, ai forum, alle chat, a Wikipedia, alle piattaforme di condivisione quali YouTube e Flickr o, soprattutto, ai social network come Facebook, Twitter, LinkedIn. Con l’avvento del New Web[2] l’utente dismette i panni dello spettatore inerte per rivestire quelli dell’attore protagonista: sono proprio i suoi contenuti a riempire quella che da molti è chiamata la “scatola vuota” del Web 2.0.
In effetti queste nuove piattaforme senza gli utenti risulterebbero prive di significato: si pensi a YouTube senza video caricati dagli uploader, Facebook senza la condivisione di stati, pensieri o link o ancora forum privi di thread e topic, Wikipedia senza contributi degli utilizzatori. Lo scenario sarebbe inimmaginabile/apocalittico. Sono proprio i contributi personali e individuali a “reggere il peso” dell’informazione moderna. Ma siamo sicuri che quest’ultimo scenario ipotizzato sarebbe così catastrofico? Nel Web 1.0 esistevano delle tecniche utilizzate per tenere i visitatori il più a lungo possibile su un sito web[3] (cd. stickiness o “appiccicosità” di un sito), e per farlo si cercava di inserire quanta più informazione di qualità, selezionata e proveniente da personale competente. Il controllo era effettuato a monte, da chi inseriva il contenuto sul web, in modo che quest’ultimo potesse risultare realmente utile ai potenziali fruitori. Un limite di tale concezione, tuttavia, era rappresentato dalla scarsa numerosità dei contributi, essendo questi affidati a pochi fornitori di servizi. Tale limitazione viene ampiamente superata con l’avvento del Web 2.0. Di contro, però, l’aver concesso a tutti la possibilità di dire la propria online ha portato ad altre, e più serie, problematiche. È celebre, da questo punto di vista, l’intervento di Umberto Eco del 10 giugno 2015 in occasione del ritiro della Laurea honoris causa in “Comunicazione e Culture dei Media” a Torino: «I social media danno diritto di parola a legioni di imbecilli che prima parlavano solo al bar dopo un bicchiere di vino, senza danneggiare la collettività. Venivano subito messi a tacere, mentre ora hanno lo stesso diritto di parola di un Premio Nobel. È l’invasione degli imbecilli» e ancora «Il dramma di Internet è che ha promosso lo scemo del villaggio a portatore di verità». La proposta di Eco, per cercare di debellare o quantomeno mitigare gli effetti nefasti del Web riscrivibile, è quella di commissionare ai giornalisti, in qualità di soggetti qualificati, un’analisi critica, dettagliata e periodica dei siti; in questo modo un’équipe di specialisti filtrerebbe il mare magnum di informazioni proveniente da Internet in modo da stimarne, con percentuale più alta possibile, il grado di attendibilità. E questo potrebbe avere un’importanza maggiore se pensiamo che, secondo un’indagine PIAAC[4] del 2013 svolta su iniziativa dell’OCSE[5], l’Italia ricopre l’ultimo posto per competenze alfabetiche, dopo Giappone e Stati Uniti, ma anche Estonia, Cipro e Irlanda: nella popolazione tra i 16 e 65 anni meno del 30% possiede quei livelli di conoscenze considerati il minimo per vivere e lavorare nel XXI secolo. Ciò vuol dire che nel nostro Paese, e per ipotesi prospetticamente nel mondo, il 70% degli individui è pressoché analfabeta o analfabeta di ritorno, cioè fatica a comprendere testi e non legge, nemmeno i giornali. La cosa più preoccupante, poi, è che una parte, più o meno elevata, di tale percentuale accede con persistenza alla Rete, scrivendo, commentando e saturando con propri contributi gli spazi offerti dal Web 2.0.
Viene da chiedersi a questo punto se è servito a qualcosa aver dato a tutti il “diritto di parola” alla luce delle distorsioni generate dall’utilizzo erroneo dell’evoluzione della Rete. Blog che inneggiano all’odio razziale o alla blasfemia, YouTube insozzato da filmati di violenza nelle scuole, Facebook stracolmo di stati di alcuna utilità per nessuno, di news e informazioni prive di alcun fondo di verità, o addirittura di insulti, cyberbullismo, cybercryme: è questo il prodotto più becero della Rete. I social network, poi, sono divenuti il luogo (virtuale) ove avvengono diffamazioni e ogni genere di offesa personale, con un aumento vertiginoso dei contenziosi nelle aule dei Tribunali in cui Facebook e le altre reti sociali costituiscono l’oggetto del contendere. La maggior parte degli utenti non si rende conto, infatti, che le possibilità offerte dalla Rete possono avere delle conseguenze anche abbastanza gravi dal punto di vista della responsabilità penale. I social networker tendono a commentare con semplicità disarmante tramite improperi e bestemmie, ritenendo erroneamente, o peggio ancora non ponendosi proprio il problema, che tali azioni siano neutre o prive di importanza, senza sapere che le affermazioni espresse su Internet hanno lo stesso valore delle espressioni verbali o rese su carta. Gli spazi sottostanti ad una foto su Istagram o ad un post su Twitter divengono covi d’odio dove è possibile leggere ogni sorta di atrocità e aberrazione possibili. Da questo punto di vista non si stava forse meglio quando si stava peggio? Ecco, sarebbe necessario un intervento per regolarizzare tali situazioni; una moderazione o qualsiasi cosa possa favorire una fruizione serena dei contenuti, libera da storture e avversioni personali. Se quindi il Web 1.0 era troppo chiuso, quello 2.0 è fin troppo aperto. A parere di chi scrive un controllo preventivo, come quello paventato da Eco, potrebbe costituire una valida proposta per contemperare le posizioni estreme delle due forme di web osservate. Anche perché il controllo successivo[6] ha mostrato le sue debolezze, non offrendo idonee e adeguate garanzie, considerato poi che ad Internet possono avere accesso, con estrema facilità, minori e categorie protette. Detto ciò è necessario, però, fare il conto con quanti hanno costruito le proprie fortune su tale modello organizzativo. Il Web 2.0, infatti, non può essere più arrestato poiché vi sono interessi troppo grandi in gioco, soprattutto economici. Con la condivisione di informazioni personali palesiamo costantemente chi siamo, agevolando le società connesse al nuovo marketing 2.0 a capire cosa ci piace, cosa ci interessa e come venderci al meglio i loro prodotti (si pensi ad esempio a Google AdWords che consente di raggiungere nuovi clienti e aumentare il giro d’affari di un’organizzazione in base ai click degli utenti o ancora ai discussi cookie di terze parti). La presunta libertà concessa dal New Web è in realtà una grande illusione: siamo liberi di riempire con contenuti la Rete, ma in cambio le aziende acquisiscono e utilizzano i nostri dati di natura personale. Di questi dati avviene un vero e proprio commercio: divengono oggetto di banche dati per andare a profilare i nostri gusti e le nostre tendenze, così da costruire campagne promozionali e pubblicitarie mirate ed efficaci. Non è un caso che le aziende sono sempre più presenti sui social network con pagine specifiche di prodotti e servizi offerti.
Ci ritroviamo in un vortice senza fine, nel quale crediamo di essere attori, ma siamo più spettatori di quanto eravamo nel Web 1.0. Le aziende “leggendoci” apertamente continuano ad arricchirsi sulla base di tale modello, noi invece lo subiamo ogni giorno, con la desolante conseguenza che il New Web ci ha danneggiato ben due volte: innanzitutto perché nella Rete siamo ormai libri aperti senza segreti, con conseguente violazione continua della nostra privacy, e successivamente perché si è abbassato drasticamente il livello di qualità dell’informazione presente sul web, anche e soprattutto a nostro discapito, in qualità di fruitori delle notizie.     

Francesco Laprovitera  


[1] L’esoressione può essere fatta risalire all’editore irlandese naturalizzato statunitense Tim O’Reilly.
[2] Nuovo Web, come alternativamente indicato dallo scrittore statunitense Seth Godin.
[3] Nel Web 2.0 invece sono state concepite altre modalità di contatto con il fruitore. Ci riferiamo alle tecnologie di syndication (RSS, Atom, tagging) secondo cui i contenuti possono essere fruiti non solo sul sito, ma anche attraverso canali diversi.
Un esempio di questi nuovi canali sono i feed, cioè delle liste di elementi con un titolo (es. notizie di un giornale, thread di un newsgroup), che permettono il successivo collegamento ai contenuti informativi, attraverso notifiche che “raggiungono” direttamente l’utente.
[4] Programme for the International Assessment of Adult Competencies.
[5] Organizzazione per la cooperazione e lo sviluppo economico.
[6] Controllo di tipo repressivo, caratterizzato dalla rimozione successiva di contenuti inadeguati dalla Rete.