Niente di nuovo sul fronte digitale? Intervista a Marco Guastavigna / Parte 2

 

Questa intervista fa parte di un ciclo dedicato alle tematiche lavorative. Il gruppo di approfondimento del CIVG intervisterà studiosi e lavoratori per tracciare un quadro dei mondi del lavoro.

 

 

Le nuove tecnologie premiano sempre di più l’apprendimento di “procedure” e sempre di meno quello di conoscenze o abilità.

Se si deve raggiungere una determinata località, è ormai automatico affidarsi a una App, che magari ci proporrà (leggi: imporrà) dei percorsi elaborati in base al nostro profilo digitale, ovvero alle nostre abitudini e ai nostri gusti di consumatore. Di questa strada, del percorso che abbiamo percorso per arrivarci, non conosceremo pressoché nulla. Il sapere procedurale non è infatti conseguimento di una conoscenza, ma esclusivamente di una procedura con cui ci si può procurare una conoscenza.

Tu hai dedicato molte energie allo studio e analisi delle “mappe concettuali”; quali impatto hanno a tuo avviso le nuove tecnologie sul nostro modo di orientarci (anche in senso letterale) nella realtà? Fino a che punto esse sono legate al continuo tracking delle attività degli utenti per ricavarne profitto?

 

 

 

Comincio proprio dalle mappe concettuali, perché costituiscono un esempio lampante della torsione operativa e culturale che un impiego pedissequo delle tecnologie digitali può imporre all’insegnamento e – quel che è più grave – agli apprendimenti.

In estrema sintesi, le concept maps sono state pensate dal professor J. D. Novak come strumento di rappresentazione grafica della conoscenza: il loro scopo specifico è esplicitare relazioni tra concetti mediante proposizioni logicamente complete. Ogni proposizione è costituita dall’insieme concetto [testo raccolto in una forma geometrica] + relazione [segmento orientato corredato di verbo al presente indicativo] + concetto [di nuovo, testo raccolto in forma geometrica].

Secondo Novak, lo sforzo di elaborazione richiesto dalla produzione di queste proposizioni contribuisce a produrre apprendimento significativo, quello che incide sulla configurazione della struttura delle conoscenze e del sapere dei soggetti mediante assimilazione e conseguente trasformazione dei loro assetti cognitivi.

Le mappe concettuali sono quindi uno strumento di rappresentazione grafica della complessità del sapere; chi realizza una mappa concettuale compie un intenzionale distanziamento cognitivo dalle proprie conoscenze, le richiama, le elabora e le dispone secondo uno schema di rappresentazione estremamente potente e molto impegnativo.

Tra le altre cose, l’équipe di lavoro di Novak ha prodotto un software, Cmap Tools, distribuito gratuitamente e multipiattaforma. Lo strumento è ottimo, ma – come in molti altri casi – l’esistenza di un software (di un’App, come è attualmente moda lessicale) ha prodotto un risultato grottesco: molti hanno trascurato la conoscenza del modello logico-visivo concepito da Novak e implementato in Cmap Tools, limitandosi alle funzionalità operative dell’ambiente. Tra questi vi sono parecchi insegnanti e di conseguenza parecchi studenti, che possiedono soltanto un imparaticcio empirico e superficiale, a cui consegue un rumoroso affollamento di schematizzazioni digitali approssimative, confuse, superficiali e per lo più lontanissime dal rigore originario delle concept maps.

Questo esito paradossale è emblematico di un processo diffusissimo, ricorrente e ricorsivo. Gli strumenti digitali introdotti nei percorsi di istruzione vengono totemizzati e considerati di per sé portatori assoluti e autosufficienti di innovazione operativa e metodologica. A tale innovazione viene attribuita – di nuovo in forma totalizzante e acritica – la capacità intrinseca di motivare all’apprendimento, di essere congruenti con le esigenze degli scolari e degli studenti, di introdurre flessibilità, personalizzazione dei percorsi, inclusione e così via. Ragion per cui, non solo si imparano modi di procedere fini a sé stessi, ma si persegue spesso come obiettivo strategico il banale empowerment operativo delle funzionalità di un software.

Imparare a scrivere testi coincide così con la capacità di usare i menu e le icone di un word processor, come imparare a fare ricerca significa saper “googlare”. Questo secondo esempio, per altro, è particolarmente indicativo della degenerazione culturale in atto.

L’istruzione pubblica – e spesso anche la formazione degli insegnanti –, infatti, ignora bellamente non tanto l’esistenza della holding Alphabet Inc., e quindi della presenza di fini di lucro nella mission di Google, quanto piuttosto gli aspetti davvero importanti del suo funzionamento, concepito soprattutto per recuperare informazioni just in time in merito a qualcosa (nome, luogo, data, definizione, categoria, posizione, percorso, servizio, prezzo, orario, disponibilità, identità, scheda descrittiva, recensione e così via) nei confronti delle quali nutriamo un interesse immediato.

In primo luogo, il motore di ricerca traccia i comportamenti di tutti i suoi utenti e proprio a questo deve parte del proprio successo: il suo algoritmo di posizionamento, come ho già accennato, è particolarmente efficace, perché unisce a una serie di funzionalità automatiche la capacità di monitorare le pagine effettivamente aperte tra quelle elencate agli utenti, i link alle stesse da altre unità informative di rete, oltre a formulazione, combinazione e frequenza delle chiavi di ricerca nelle diverse lingue. Più certe scelte si ripetono, più certe unità informative sono considerate pregnanti, capaci di rispondere alle esigenze degli utenti. Con esiti a volte davvero imbarazzanti.

In secondo luogo, coloro che accedono con credenziali identificative, oltre a essere convolti nel processo di sfruttamento semantico collettivo appena descritto, vengono profilati individualmente in modo costante e puntuale, con attenzione certosina alle loro pratiche: quali pagine aprono? Quali video selezionano? Per quanto tempo ne fruiscono? E così via.

In questo modo Google conoscerà sempre di più ciascun utente, individuerà i suoi orientamenti e le sue aspettative, e sarà in grado adeguare di volta in volta i risultati di ricerca alle preferenze e alle esigenze manifestate in precedenza e depositate nel suo profilo.

È la logica customer care: il motore di ricerca ha come target ogni singolo cliente, con l’obiettivo di proporgli le risorse più coerenti con le sue abitudini di consumo delle informazioni. A profili diversi, quindi, possono essere potenzialmente forniti risultati di ricerca differenti, anche divaricati. Lo scopo, infatti, è – per Google ma anche per ogni altro mediatore informazionale – non tanto la correttezza dell’informazione, quanto piuttosto la massimizzazione della permanenza di ciascun utente sui propri servizi, per esporlo alla pubblicità o ad altre operazioni di marketing di cui è micro-target individuale.

Basta un po’ di buon senso per capire che questa dovrebbe essere una delle prime nozioni da imparare a proposito della “ricerca” su Google. Tanto più che la profilazione ha risultati analoghi anche nel mondo social, dove l’utente corre il forte rischio di essere rinchiuso nell’insieme di coloro con cui condivide opinioni e preferenze.

 

Sempre più spesso assistiamo alla sostituzione della progettualità politica e dell’indagine scientifica con il cosiddetto “determinismo algoritmico” fondato sui Big data, quale strumento principe per decidere cosa è vero e giusto. Perché ritieni necessario problematizzare la “razionalità dell’algoritmo” e i sistemi decisionali da essa supportati?

 

 

Viviamo condizionati dall’algocrazia. Nella società globalizzata, accanto alle sovranità istituzionali tradizionali ed evidenti a tutti, il potere è infatti di fatto nelle mani delle procedure automatizzate di proprietà di GAFAM (Google, Apple, Facebook, Amazon, Microsoft), NATU (Netflix, Airbnb, Tesla, Uber) e BATX (Baidu, Alibaba, Tencent, Xiaomi) e di altre aziende minori.

Questi soggetti, come abbiamo detto, offrono servizi commerciali, di intrattenimento e di consumo culturale a utenti sempre più sollecitati all’accreditamento -e quindi riconoscibili e tracciabili nelle loro azioni e relazioni - e praticano la registrazione, l’immagazzinamento e lo sfruttamento di informazioni con fini di profitto, ottenuto mediante profilazione e marketing, anche in campo politico. Come ho già detto, i loro algoritmi accumulano e analizzano in tempo reale dati e li aggregano e combinano a fini conoscitivi e predittivi.

L’attuale assetto configura il massimo accentramento delle reti digitali, ha una potente valenza di manipolazione delle soggettività, delle opinioni e dei comportamenti e annovera tra i suoi effetti anche una limitazione tecnologica delle libertà fondamentali.

È bene chiarire, infatti, che gli algoritmi sono di proprietà delle diverse aziende e di conseguenza chiusi, coperti dal segreto industriale: che operino è noto, quali siano le loro linee generali anche, ma la comunità mondiale -pur essendo sottoposta al loro costante intervento e alle sue conseguenze sociali e politiche – non ha informazioni precise e dettagliate sulla loro struttura. L’algocrazia, insomma, agisce e imperversa senza alcuna trasparenza.   

L’offerta di servizi attrae sempre più utenti e determina la costituzione di comunità, che interagiscono al loro interno secondo regole e logiche predeterminate dagli algoritmi, poiché sono destinate fin dalla nascita a creare le condizioni per lo sfruttamento dei dati e delle relazioni tra i partecipanti: una sorta di gamificazione estrema, totalizzante e totalitaria.

Siamo di fronte, insomma, a complessi di individui e di rapporti che si costruiscono a partire dalla progettazione degli algoritmi destinati a insistere su di essi, e che – eventualmente – si riconfigurano a partire da modifiche centralizzate, su cui gli utenti, come ho già accennato, non hanno alcun vero spazio di negoziazione.

Sono numerosi coloro che sottolineano, oltre agli aspetti appena visti, il forte rischio che l’efficienza analitica e predittiva degli algoritmi induca progressivamente a delegare ad essi i processi decisionali più sofisticati.

Questa deriva è largamente in atto, perché nella cultura politica corrente sono ampiamente diffuse sia l’idea della “decidibilità immediata”, sia la retorica della consultazione diretta dei cittadini come esplicazione suprema della sovranità popolare.

Entrambe le prospettive sono ingannevoli e antidemocratiche, perché riducono la partecipazione all’espressione di un’indicazione di volontà – in genere di tipo plebiscitario - e perché sostituiscono all’intermediazione delle formazioni politiche, sindacali, civiche e associative quella degli algoritmi, la cui decisione sarà considerata l’unica possibile, date le condizioni di partenza.

È perciò necessaria, a mio giudizio, un’educazione diffusa agli aspetti e ai rischi di questo uso della matematizzazione della realtà: il fatto che gli algoritmi aziendali agiscano in forma proprietaria e chiusa deve diventare conoscenza di massa, basilare componente della cittadinanza critica.

Così come deve diventare chiaro che la costruzione della struttura e delle articolazioni possibili di una decisione su base algoritmica è il frutto di presupposti etici, culturali, sociali, economici, politici e così via, che dipendono da scelte precise e destinate ad avere conseguenze e implicazioni, non fatti obiettivi.

Troppo spesso, invece, a fronte di una visione ristretta, elitaria e castale della costruzione di modelli matematici e statistici - considerati competenza “tecnica” e quindi non soggetti al pensiero critico - viene data inconsapevolmente via libera a processi di mathwashing, che possono presentare come oggettiva e neutra una procedura che invece è arbitraria e basata su pre-giudizi. Come i casi in cui alcune persone vengono escluse da prestiti, polizze assicurative o altre forme di servizi senza che sia dato loro conto in modo davvero trasparente delle ragioni di tali decisioni.

La velocità di calcolo dell’intelligenza artificiale, insomma, non deve legittimare la sottrazione alla consapevolezza e alla riflessione degli umani-cittadini di interi campi decisionali con la motivazione dell’eccesso di complessità procedurale e dell’ampiezza delle basi di calcolo.

I rapporti di forza in atto non consentono probabilmente di pretendere l’apertura tecnica, etica, civile e politica degli algoritmi delle grandi aziende globali, ma è certamente possibile – almeno per contrasto – delineare come le istituzioni e le realtà associative a statuto democratico debbano utilizzare gli strumenti dell’analisi e della predizione statistica offerti dallo sviluppo dell’intelligenza artificiale.

Per contrastare e liberare quelle scaturite e conformate dagli algoritmi proprietarie e chiusi, devono nascere e diffondersi comunità molto diverse, in grado di scegliere con chiarezza e precisione e affidare a un proprio sapere tecnico consapevolmente indirizzato la costruzione di algoritmi decisionali trasparenti, che abbiano finalità e caratteristiche davvero congruenti con l’identità e lo scopo delle comunità stesse anche quando le loro attività acquisiscano una dimensione digitale “a distanza”. Va insomma rovesciato l’attuale rapporto algoritmo-comunità, completamente sbilanciato sugli apriorismi del primo.

Vediamo un esempio. Un comitato di cittadini si costituisce per affrontare una questione di tipo ambientale concreta e di conseguenza definisce “in presenza”  - con assemblee, riunioni e altri eventuali istanze di riflessione collettiva - scopo, organizzazione, scadenze, forme di discussione, confronto, decisione, strumenti di comunicazione verso l’esterno, sede, e così via.

Le attività e le relazioni messe in moto in questo modo possono ovviamente essere accompagnate, irrobustite, integrate e facilitate con l’uso di strumenti di interazione a distanza basati su reti digitali. È importante però che questa architettura non sia il frutto dell’acquisto “chiavi in mano” di una soluzione preconfezionata e nemmeno soltanto l’adattamento delle dinamiche della comunità alla logica predefinita da un mediatore informazionale globale (tipicamente pagina o gruppo Facebook).

La strutturazione dell’infrastruttura digitale del comitato deve invece essere il risultato di riflessioni e scelte esplicite, condivise e chiare a tutte le istanze e a tutti gli appartenenti, in modo da risultare potenziamento autentico e non invece gabbia operativa e culturale.

Un’altra esemplificazione: è molto frequente che una formazione politica di dimensione nazionale debba prendere una decisione. La consultazione (anche) a distanza degli iscritti può garantire rapidità e partecipazione pure a coloro che non vivono vicino alle sedi fisiche del partito.

Anche in casi come questo, l’espressione di volontà deve avvenire secondo modalità coerenti con la tradizione e le esigenze della formazione politica. Se vi è la capacità di decidere senza generare conflitti e divisioni insanabili, potrà essere sufficiente la votazione in termini binari, sul fare o non fare una certa cosa. Se vi è una situazione diversa, potrà essere utile procedere invece con una forma di votazione che preveda più opzioni e un algoritmo di calcolo ponderato dei risultati, capace di individuare, una volta che sia avvenuta l’espressione di voto, la scelta meno divisiva.  Chiamando i votanti a esprimere il proprio ordine di gradimento delle diverse opzioni anziché una sola scelta, sarà insomma possibile arrivare a un risultato meno conflittuale.

È essenziale, però, che il modo in cui si vota e il modo di procedere dell’algoritmo non siano una sorpresa di pochi giorni prima quello del voto o una sorta di bizzarria modernizzante accettata obtorto collo perché imposta a tutti da una minoranza di tecnofili delegati in modo blindato a decidere come procedere, ma una forma di espressione e di decisione che scaturisca davvero da scelte realizzate con tempi distesi, condivise, chiare a tutti e coerenti con l’identità formale, etica e civile della comunità.

Ovviamente, a codificare e implementare quanto serve saranno sempre gli addetti ai lavori, ma questi agiranno a seguito di una negoziazione paritaria, non sbilanciata a favore di una tecnocrazia falsamente neutra, come invece avviene ora.

Insomma, se vogliamo davvero garantire il rispetto della democrazia e della libertà di espressione, dobbiamo dotarci di infrastrutture digitali consapevolmente rivolte all’emancipazione, che possano essere davvero strumenti di comunità definite, pre-esistenti all’implementazione delle reti interattive.

Queste infrastrutture devono essere per definizione dinamiche e modificabili, perché il loro scopo è contribuire alla costruzione della volontà collettiva, e devono essere subordinate alle azioni e ai principi per cui sono nate le diverse comunità che le andranno a utilizzare.

Analogamente, l’introduzione di forme di interazione a distanza nelle istituzioni deve avere lo scopo di incrementare la partecipazione attiva e consapevole dei cittadini mediante percorsi di comunicazione e di decisione pubblici, relativi a situazioni concrete. Si devono configurare come pratica della democrazia: i dati sono di proprietà dei cittadini coinvolti e gli algoritmi sono aperti, discussi e rinegoziabili a seconda delle esigenze collettive.

Riassumo. Al momento sono imperanti le comunità virtuali il cui DNA è frutto di impostazioni algoritmiche aprioristiche, con orizzonti vincolati e vincolanti, che configurano ambienti di formattazione omologante dei soggetti partecipanti e delle relazioni tra di essi. È però possibile concepire (almeno in potenza) comunità che decidano di utilizzare le capacità di semplificazione, potenziamento, estensione, accelerazione degli strumenti digitali per progettare ed impostare in modo intenzionale pratiche algoritmiche democratiche, coerenti con il loro DNA culturale, politico, associativo e così via.

Prima che sia qualcun altro a farmelo presente, mi ricordo da solo che sono sul fronte dell’utopia: i tempi necessari alla crescita della consapevolezza della necessità di rendere trasparenti e di democratizzare i processi di matematizzazione della vita quotidiana rischiano di essere troppo lunghi rispetto alla velocità con cui invece avvengono fenomeni sui quali come cittadini – e spesso perfino come consumatori! -  non abbiamo il controllo, con conseguenze assai condizionanti.

Come già accennato, inoltre, sono davvero rare le voci critiche pubbliche in tema di cultura algoritmica. Perfino nelle aree culturali e associative da essa più distanti la visione dominante influenza le pratiche di tipo digitale: pagina Facebook, distribuzione attraverso Amazon, fidelizzazione a Google con l’apertura di una casella di posta destinata a raccogliere l’adesione a una petizione. E così via. 

Al momento, però, non vedo altra strada che una sorta di appello ad uscire in modo esplicito dall’inerzia, dall’indifferenza e dall’assuefazione alla logica liberista delle tecnologie digitali: forse non riusciremo a invertire il corso dei processi, ma ridurremo il danno almeno su noi stessi e – chissà? - inaugureremo percorsi di resistenza.

Come reagire di fronte a questo scenario? Quali sono gli spazi compatibili con la libertà umana nel mondo delle tecnologie digitali?

 

 

Sono certamente possibili pratiche decondizionanti, capaci di purificare almeno in parte la nostra attività digitale quotidiana dagli aspetti più acritici e meccanici dell’omologazione in nome della modernità unilaterale.

La pratica depurativa più immediata è l’uso del software free, delle applicazioni per il cui utilizzo non si pagano royalties: si scarica il programma – in genere disponibile per tutti i sistemi operativi - da Internet, e insieme ad esso anche l’autorizzazione a copiarlo e a ridistribuirlo ad altre persone. In questo modo manterremo efficienza ed efficacia e nello stesso tempo sfuggiremo almeno in parte alla supremazia commerciale e al monopolio operativo (lock-in, fidelizzazione forzata) delle grandi corporation, in particolare di Microsoft e Apple - nel secondo caso almeno sui computer, non sottoposti al monopolio dello store della casa madre come iPhone e iPad. Scegliere di usare software libero significa praticare almeno in parte il copyleft, il principio di Richard Stallman, che è critica profonda e sovversione del concetto capitalista di proprietà intellettuale perché introduce una clausola di condivisione a garanzia delle quattro libertà/gratuità del software: utilizzare, studiare, diffondere, modificare.

Anche i libri elettronici, file su cui le piattaforme di distribuzione concedono particolari licenze d’uso, ci danno qualche possibilità di depurazione. Gli eBook, infatti, possono essere codificati per un loro impiego con qualsiasi strumento elettronico, oppure con un formato proprietario, che pretenderò solo particolari lettori o applicazioni. Il distributore – è questo il caso di Amazon- non concede a soggetti terzi di realizzare e vendere lettori compatibili, ovvero di utilizzare la propria codifica, cosicché gli ebook acquistati su quella piattaforma possono essere usati solo sul lettore venduto dalla medesima. Un utente che abbia fatto una scelta proprietaria, non potrà perciò di fatto cambiare distributore, se non azzerando la propria raccolta di ebook o acquistando un altro lettore: un effetto di lock-in a cui è possibile sottrarsi e sottrarre scegliendo di acquistare e di produrre ebook in formato ePub, aperto e non proprietario.

Un'altra pratica depurativa è il ricorso ai motori di ricerca che non tracciano gli utenti, in modo da non cedere i propri dati e ricevere, a parità di parole-chiave, gli stessi risultati di ricerca siano gli stessi. Hanno queste caratteristiche, per esempio, Qwant e DuckDuckGo. Analogamente è possibile usare, anziché gli strumenti di navigazione prodotti dalle grandi corporation digitali (Edge, Safari, Chrome), i browser orientati alla privacy e alla riservatezza, che azzerano o riducono al minimo le tracce lasciate in rete: per esempio Tor, Dooble, Firefox Quantum, rilasciati per tutti i sistemi operativi più diffusi su PC, tablet e smartphone.

Con queste scelte, ci collochiamo sul fronte di un uso etico delle tecnologie digitali: chi fosse interessato può trovare altri esempi di strumenti alternativi su De-google-ify Internet, Framasoft e Wedemain.

Tra l’etico e il cognitivo si colloca la questione della cosiddetta post-verità, ovvero l’assegnazione del valore di verità (o di falsità) a una notizia sulla base della sua capacità di suscitare emozioni, a cui fornisce continuo alimento l’uso dei social-recinto e dei motori di ricerca customer care. Il consiglio di attuare fact-checking (verifica dei fatti e delle fonti) e debunking (smascheramento delle fandonie) è certamente valido e utile, ma non posso non sottolineare l’ingenuità delle visioni neo-illuministiche molto diffuse in ambiente accademico come soluzione al problema delle fake news. È infatti assolutamente illusorio pensare che predicare il ricorso a ragionevolezza e razionalità costituisca un antidoto sufficiente contro il dilagare di una forma di costruzione del consenso politico-culturale sempre più diffusa ed efficace, che consegue l’egemonia con strategie e modalità comunicative volte alla manipolazione delle coscienze e dei comportamenti. La post-verità, insomma, non è la degenerazione casuale di un processo sfuggito di mano, ma il frutto di scelte da parte di soggetti che agiscono con una volontà precisa e sfruttano a proprio vantaggio le conseguenze di ciò che mettono in moto con piena consapevolezza.

La “post-verità” appartiene all’insieme dei concetti con valenza trasversale che è bene possedere e utilizzare in modo critico per sfuggire al senso comune e all’omologazione in tema di “digitale”. Depurazione ed emancipazione culturale richiedono infatti un approccio multidisciplinare e dinamico, che non può essere ridotto a sapere accademico, consolidato e pertanto già stabilizzato e indiscutibile.

Il primo concetto è l’interoperabilità: ogni dispositivo è in grado di interagire con qualsiasi altro. Per lo più attraverso la rete, ma anche mettendo in relazione diretta le diverse applicazioni: nessuno è isolato, ogni informazione può essere facilmente replicata e condivisa, salvo che a ciò vengano frapposti ostacoli tecnici legati al copyright e al lock-in. Ne consegue che, poiché ogni dispositivo, oltre ai programmi e agli archivi di file, contiene un patrimonio crescente di dati relativi all’utente, quest’ultimo deve prestare grande attenzione a privacy e riservatezza, da una parte, e alla sicurezza degli strumenti dall’altra. Leggere con attenzione le condizioni d’uso (tra cui l’imperversante cessione dei “contatti” e dei contenuti multimediali posseduti alle applicazioni installate su di un proprio dispositivo) è una precauzione imprescindibile. Lo stesso vale per l’ingresso in qualsiasi forma di servizio di rete, in particolare per i più famosi e affollati.

Ho appena usato il concetto di multimedialità, che credo di poter dare per scontato. Accanto ad esso si colloca quello di crossmedialità, ovvero la capacità di progettare efficaci migrazioni di contenuti tra una modalità comunicativa ad un’altra. Non è una novità assoluta del digitale: hanno infatti praticato crossmedialità senza possedere il termine tutti quei registi e quegli sceneggiatori che hanno realizzato film a partire da racconti e romanzi. Ciascuno di noi deve saper essere crossmediale se non come autore, almeno come fruitore di contenuti. È una forma di esercizio del senso critico: proprio perché il medium è il messaggio, un cattivo impiego del mezzo comunicativo – esempio ormai classico, il sovraccarico di effetti speciali di cui soffrono troppo spesso le slide digitali – provoca la corruzione del contenuto e della relazione comunicativa.

La crossmedialità è una delle conseguenze del fatto che gli strumenti digitali realizzano la massima convergenza dei contenuti: testi, animazioni, immagini, audiovisivi sono tutti ridotti a bit e quindi tutti gestibili sul medesimo supporto fisico e con la medesima infrastruttura di distribuzione.

Se mettiamo ancora una volta a fuoco il campo dell’istruzione, la crossmedialità e la multimodalità (il fatto che un testo archiviato in forma di bit può essere senza ulteriori interventi letto dalla sintesi vocale oppure inviato a una stampante o ad un altro dispositivo Braille) sono buone premesse per incrementare l’accessibilità della cultura. Così come la presenza via via crescente di contenuti di qualità rilasciati non secondo il modello proprietario del copyright, ma secondo quello aperto delle Creative Commons Licenses.

Se abbiamo una visione democratica e inclusiva della partecipazione culturale, possiamo impiegare in questa direzione anche alcune altre caratteristiche del sapere collocato su supporto digitale. Sto parlando della flessibilità, che conferisce al testo una plasticità e un tasso di manipolabilità e adattamento sconosciuti quando esso risiedeva su supporti rigidi (dalla pietra all’argilla, fino alla carta) e della sintassi ipertestuale, che consente di connettere tra di loro nodi residenti in punti diversi della rete, costruendo e mediando senso e percorsi di conoscenza. 

Ultima, ma non meno importante, la possibilità di condividere dati sui depositi residenti sul cloud. Coerentemente con l’impostazione generale di queste note, suggerisco di rivolgersi a servizi alternativi rispetto a quelli più noti, con particolare attenzione alla riservatezza e alla sicurezza dei contenuti.

Marco Guastavigna (1952), già insegnante di Materie letterarie nella scuola secondaria di primo e secondo grado, formatore e professore a contratto, tra gli ultimi a godere di vitalizio previdenziale su base retributiva, divide le proprie residue energie tra nonnità e pensiero ostinatamente critico. Da quasi vent’anni tiene traccia della propria attività intellettuale e professionale in Noiosito.it, denominazione profetica della considerazione a proposito del ragionamento complesso diffusa nei tempi attuali.