Ieri sera mi ha telefonato Il Franti. Era fermo a una piazzuola di servizio con un po’ di gente, in maggioranza autostoppisti digitali. Stavano tutti bevendo un tè prima di riprendere una conversazione sui viaggi digitali. Sapeva già che avrebbe affrontato con gli autostoppisti un tema di tendenza: l’intelligenza artificiale. Ma di cosa stiamo parlando esattamente? E così gli venne in mente di chiamarmi.
«Uellà zio, senti un po’, sono Il Franti. Ti faccio una domanda: rispondi sinceramente senza prendermi in giro. Cos’è l’intelligenza artificiale? Te lo chiedo a te, zio, perché per ora mi sembri maestro, non deludermi.»”
Ma va là bro, comunque la risposta è banale, computer che eseguono programmi. Programmi che però hanno una caratteristica particolare: invece di seguire istruzioni rigide e predefinite, possono elaborare informazioni, riconoscere pattern e generare output in modo che sembra “intelligente”. ChatGPT elabora testo, Midjourney genera immagini, algoritmi di machine learning analizzano dati – sempre computer, sempre programmi software che eseguono elaborazioni statistiche e calcoli probabilistici su grandi dataset, seguendo istruzioni predefinite per produrre output matematicamente determinati dalle correlazioni nei dati di training.Ti mando su Telegram degli approfondimenti ¹.
Il Franti rimase in silenzio per qualche secondo, probabilmente digerendo la spiegazione tecnica.
«Ma allora, visti tutti gli allarmi sul tema dell’intelligenza artificiale che sentiamo quotidianamente, dobbiamo quindi avere paura dei computer? Dobbiamo temere chi produce questi nuovi programmi chiamandoli con nomi che ci distraggono, come “intelligenza artificiale”? Dobbiamo preoccuparci che questi computer e i loro software sostituiranno l’uomo? E soprattutto: chi ha interesse a diffondere queste paure?»
Vedi, Viktor Frankl, sopravvissuto ai campi di concentramento e fondatore della logoterapia, ha mostrato come l’ansia anticipatoria, la paura della paura, crei un circolo vizioso che impedisce il pensiero razionale². Quando temiamo qualcosa, spesso “la paura rende reale ciò che teme”³, e questa “fuga dalla paura” paradossalmente la rafforza⁴.
È il classico scenario del “perderai il lavoro“, “sarai sostituito“, “non capisci nulla di tecnologia“, “l’intelligenza artificiale ti sostituirà” che crea quello che Frankl chiamava un meccanismo di controllo attraverso l’ansia: persone preoccupate, disorientate e incapaci di affrontare razionalmente la realtà. Quando non riusciamo a trovare significato in ciò che accade intorno a noi, diventiamo vulnerabili a chi sfrutta le nostre paure per dirigere la nostra attenzione verso minacce immaginarie piuttosto che verso la comprensione dei fenomeni reali⁵.
Sentii una pausa imbarazzata dall’altra parte della linea.
«Zio, mi spaventi… campi di concentramento!»
Senti, ma quanti di noi hanno davvero compreso cosa questa tecnologia può fare che prima non potevamo fare? In realtà, come persone stiamo già usando gli agenti AI come assistenti personali: traducono, fanno riassunti, producono articoli, disegnano e creano immagini. Abbiamo evoluto l’uso del motore di ricerca concentrando in un singolo strumento varie applicazioni che prima richiedevano software diversi. Ognuno li usa per la propria professione, studenti per gli studi, accademici per le ricerche, professionisti per le loro attività, come nuovi strumenti produttivi personali. E proprio qui, sulla parola “produttivi”, c’è già un elemento fondamentale da tenere in considerazione.
Perciò smettiamola di parlare di rischi e paure. Smettiamola di elencare pericoli e minacce prima ancora di aver capito di cosa stiamo parlando. Basta aprire LinkedIn o leggere riviste di settore: “I 10 rischi dell’IA per la tua azienda”, “Come proteggere i dati nell’era dell’intelligenza artificiale”, “Governance dell’IA: framework per la compliance”. Rapporti di McKinsey che mettono in guardia sui bias algoritmici, white paper di Deloitte sui rischi reputazionali…
«Uè, ma questi li conosci tutti a memoria?»
…linee guida dell’Unione Europea che regolamentano sistemi che la maggior parte delle aziende non ha mai nemmeno testato in maniera strutturata… e noi poi ci giochiamo insieme tutti i giorni.
«E chi sono quelli che citi? Vabbè, procediamo. Senti un po’, perché regolamentare ciò che non conosciamo?»
Bro, purtroppo viviamo un paradosso curioso: mentre molti di noi stanno già “giocando nel prato” con questi strumenti, chi elabora regole e normative sta cercando di regolamentare il tutto mentre si gioca. Pensate a una partita di calcio dove a bordo campo si stanno decidendo nuovi regolamenti e nel frattempo si continua a giocare: si interrompe, ci si confonde in campo perché le regole sono mutevoli, i giocatori non sanno più a cosa attenersi. Risultato: governance, compliance e mitigazione dei rischi che cambiano continuamente mentre tutti cercano di capire come usare questi strumenti nella vita quotidiana.
Ci fu un silenzio. Forse avevo esagerato con la metafora…uè Franti ci sei?
“Sì, stavo pensando. In effetti nessuno ci ha dato un manuale d’uso o altro. Abbiamo trovato un nuovo prato e ci siamo messi a giocare, con qualche minima regola e qualche norma ereditata da prima, ad esempio la privacy, e ci siamo comportati come quando guidiamo un’auto. Vero è che ognuno di noi guida un’auto e ormai sempre meno sanno come funziona un motore, o altre parti tecniche. Si sale in auto, si accende e si parte, però… si è ottenuta una patente. E comunque, benché si abbia una patente, i rischi e gli incidenti accadono. Quindi c’è un altro elemento: la componente umana.”
Bravo, hai colto nel segno. Parlando di patente appare il tema della conoscenza codificata, la consapevolezza dell’uso e quindi del perché si fa la patente: lo studio, l’esame. Già penserete a una patente per usare l’IA? Roba vecchia, già fatta: ricordando che abbiamo già tentato questa strada con la patente del computer (ECDL – European Computer Driving Licence). No, il tema non è patentare le persone.
Il problema non è l’intelligenza artificiale in sé, ma il nostro approccio ad essa. Ma allora, quale strada prendere? È tempo di un cambio di prospettiva radicale.
«Zio, sai che stavo pensando che, in effetti, la domanda da porsi è: cosa posso fare che non facevo prima?»
Uellà bro, bravo! Questa è l’unica domanda che conta davvero. Non “quali sono i rischi”, non “come mi proteggo”, ma semplicemente: cosa mi permette di fare che prima non potevo fare? Stiamo parlando di macchine, di strumenti, di computer che possono essere d’aiuto per le nostre attività. Pensiamoci: andiamo in giro tutti i giorni con un cacciavite in tasca perché ogni momento dobbiamo svitare qualcosa, oppure lo usiamo quando ci serve?
Certo, il discorso è molto più profondo, ma torniamo a quell’elemento chiave già evidenziato: “produttività“.
Ovvero, tutto ciò serve a essere solo più produttivi? Una nuova produttività nostra e di chi ci circonda, una nuova rapidità, aumentando l’efficienza di quelle capacità che già abbiamo.
Stiamo assistendo a un processo di industrializzazione delle attività umane, specialmente di quelle dove creatività e ingegno sono assenti.
«Aspetta, stai dicendo che l’IA non è creativa per niente?»
Esatto! Sono attività procedurali e ripetitive. Un tempo si imparava dal lavoro che si faceva, oggi insegniamo alle macchine a fare ciò che sarà automatizzato e fatto senza di noi. Certo, nessuna creatività o ingegno in questi strumenti: questo dobbiamo averlo molto ben chiaro.
ll Franti sembrava riflettere sulla metafora del cacciavite.
«Mi fai preoccupare, che mi vuoi far diventare più produttivo?»
No mio caro, segnalo solo che non possiamo delegare a esperti esterni la comprensione di ciò che potrebbe trasformare il nostro modo di lavorare, studiare, relazionarsi, vivere, giocare e altro ancora. Non possiamo affidarci a consulenti che ci vendono “opportunità” preconfezionate. Dobbiamo sporcarci le mani e capire come funziona il meccanismo, così possiamo usarlo o farne a meno. Ricorda il cacciavite di prima.
Assumersi la responsabilità significa riconoscere che l’intelligenza artificiale non è un prodotto da acquistare, ma una nuova produttività nostra e di chi ci circonda, una nuova velocità che ci fa produrre più velocemente, nuove forme falsamente diffuse di capitalismo, in realtà concentrate nelle mani di pochi. Perché, tornando al cacciavite di prima, possiamo possederlo; questi strumenti no: li usiamo finché ci è permesso da chi li detiene.
«Ecco, questo mi fa paura più dell’IA stessa…»
Significa ammettere che dobbiamo preoccuparci perché possono nascere nuove responsabilità verso gli altri, verso noi stessi, nonché responsabilità sociali, discriminazioni e false valutazioni o informazioni. Significa accettare che per comprenderla davvero dobbiamo sperimentare, sbagliare, imparare.
«Uellà zio, siamo sintonizzati! Pensa che ai miei amici autostoppisti ho parlato pochi giorni fa della subscription economy: il nuovo feudalesimo digitale. Come andiamo oltre la produttività, che dici?»
Era evidente che Il Franti aveva colto il punto centrale della questione.
Sai, serve una nuova alfabetizzazione.
La consapevolezza del dover conoscere, e quindi comprendere, richiama il tema dell’alfabetizzazione che non significa solo saper usare gli strumenti, ma riuscire a rielaborare il proprio spazio vitale attraverso questi nuovi “computer” disponibili a tutti. Si tratta di riappropriarsi di spazi vitali anziché limitarsi ad aumentare la produttività: se riesco a fare in 4 ore quello che prima facevo in 8, devo gestire il mio tempo anche in funzione sociale. L’obiettivo non dovrebbe essere produrre di più, ma lavorare meno e lavorare tutti.
«Maestro! Lavorare meno, lavorare tutti… che sballo! Ma va là, e come?»
Ma sai, basterebbe avere il coraggio dell’esplorazione diretta.
Ogni persona dovrebbe dedicare tempo a esplorare personalmente cosa l’IA può fare nel proprio contesto specifico. Non attraverso demo commerciali o presentazioni PowerPoint…
«Vabbè ma le demo sono fighe però!»
…ma attraverso l’uso diretto. Provare a far scrivere all’IA il resoconto di una riunione, farle analizzare un dataset, farle generare varianti di una proposta, farle simulare obiezioni di un cliente, cercare le fonti di una ricerca che abbiamo fatto.
Solo così si può capire dove l’IA aggiunge valore reale e dove invece è inutile o persino controproducente. Solo così si sviluppa il “senso critico” necessario per distinguere tra hype e utilità concreta, tra sacro e profano, tra moda e necessità, guardati l’email con i libri che ti ho consigliato.
«Uè, adesso non semplificare troppo…»
Ma no, è che, come tu stai raccontando agli autostoppisti, si deve esercitare il pensiero, e passare dalla paura alla padronanza.
La vera sicurezza non viene dalle regole imposte dall’alto, ma dalla padronanza personale.
Quando capisci cosa uno strumento può e non può fare, quando hai sviluppato l’intuizione per i suoi punti di forza e debolezza, allora puoi usarlo in modo sicuro ed efficace. È la differenza tra guidare seguendo ciecamente il navigatore e guidare conoscendo le strade e il paesaggio.
Questa padronanza non si ottiene leggendo manuali o frequentando corsi teorici.
Si ottiene usando, sperimentando, testando i limiti. Si ottiene facendo errori e imparando da essi. Si ottiene sviluppando gradualmente quella che potremmo chiamare “intelligenza artificiale applicata”, non la conoscenza teorica della tecnologia, ma la saggezza pratica su come e quando usarla, e se è necessario usarla, evitando di cadere in una comodità intellettuale che addormenta il pensiero..
«Mi daranno per disperso gli amici, ma da’, zio, vai avanti… ops, maestro!»
Il vero rischio non è l’intelligenza artificiale, ma l’ignoranza attiva – quella di chi decide di non esplorare, di non capire, di affidarsi completamente ad altri per le decisioni strategiche su tecnologie che potrebbero trasformare il proprio business, e la propria vita..
«Uè, mi stai dando dell’ignorante?»
Ma va là, la responsabilità oggi ad esempio non è implementare controlli sui rischi dell’IA, ma assumersi il compito di comprenderla. Non è proteggere l’organizzazione dall’IA, ma proteggere l’organizzazione dall’ignoranza sull’IA e sulle tecnologie di controllo e di dipendenza.
È tempo di superare l’adolescenza tecnologica…
«Mi stai dando dell’adolescente?»
Ma no, è quella fase in cui o si abbraccia acriticamente ogni novità o la si rifiuta per paura. La maturità significa esplorare con curiosità e disciplina, sperimentare con metodo, valutare con esperienza diretta e cercare un equilibrio, una complementarietà.
L’intelligenza artificiale non è né la soluzione a tutti i problemi né la fonte di tutti i mali. È uno strumento potente che può amplificare sia le nostre capacità che i nostri errori. La differenza la fa la nostra capacità di comprenderla, padroneggiarla e usarla con saggezza, oppure, ripeto, di non usarla come panacea di tutti i mali.
Ma tutto questo inizia con una scelta: smettere di leggere articoli sui rischi dell’IA e iniziare a scoprire cosa può fare per noi. Il resto – regole, controlli, governance – verrà naturalmente, basato su esperienza reale piuttosto che su paure teoriche.
«Senti bro, perché lo sei, quindi la vera domanda non è “come ci proteggiamo dall’IA”, ma “cosa vogliamo farci”. E per rispondere a questa domanda, mi è chiaro che dobbiamo avere il coraggio di esplorare, di pensare e soprattutto, se vediamo che possiamo produrre in un’ora ciò che facevamo in otto ore, usare il tempo libero per fare altro, senza aumentare produttività… ma che stai parlando di decrescita?»
E mio caro, grazie, sì, il discorso è articolato, ma semplice: lavorare meno e lavorare tutti è possibile. Quindi farsi prendere dalla frenesia di produrre sempre più oppure vivere consapevolmente e responsabilmente il proprio tempo? Però dai, anche tu stai parlando con i tuoi amici autostoppisti e gli stai raccontando molto per essere liberi e indipendenti, quindi se mettiamo insieme i pezzi ci divertiamo.
«A guarda, sapevo che dovevo chiamarti, già quando ti avevo incontrato all’autogrill e poi mi avevi spinto nel capannello di persone avevo intuito qualcosa, c’è fratellanza altro che divisione di età… vecchio mio. Ciao maestro, ora scappo, ti chiamo nei prossimi giorni…
Zio, mi hai fatto capire che la vera alfabetizzazione inizia adesso, non dalle regole degli altri. Vado a convincere gli autostoppisti che possiamo lavorare meno e lavorare tutti… ma prima devo imparare io stesso! Ti richiamo tra qualche giorno con i primi esperimenti.»
E sì bro, piange il telefono… risata fragorosa …ma va là, ciao!
ps. Dopo aver chiuso la telefonata mi ha mandato un email con dei link di canzoni da ascoltare … Artie 5ive – PIETÀ feat. Kid Yugi Artie 5ive – MAMA MezzoSangue – Merge et Libera che termina con una declamazione..
Merge et libera Senza il coraggio di dire quello che pensiamo Finiremo a pensare solo ciò che non fa paura dire E in quest’epoca fa paura dire ogni cosa
¹ Se vuoi acquisire dei riferimenti per conoscere il tema puuoi leggerti dal classico di Norbert Wiener “La cibernetica. Controllo e comunicazione nell’animale e nella macchina” (1948), passando per Weizenbaum con “Il potere del computer e la ragione umana” (1976), conosciuto per ELIZA il primo “chatbot” anni ’60 del secolo scorso, piuttosto che Eric Sadin con “Critica della ragione artificiale”, e non ultimo “Né intelligente né artificiale. Il lato oscuro dell’IA” di Kate Crawford, nonché se trovate ancora in giro qualcosa di Silvio Ceccato come “La mente vista da un cibernetico”.
² Viktor E. Frankl, “L’uomo in cerca di senso. Uno psicologo nei lager”, Franco Angeli, Milano, 2017. Sul concetto di ansia anticipatoria nella logoterapia, vedi anche la voce “Paradoxical Intention” in Motivation and emotion/Book/2013/Paradoxical intention, Wikiversity.
³ Ibid. La citazione tradotta dall’inglese “fear makes real that which it fears” si trova nei testi di Frankl sulla logoterapia e l’ansia anticipatoria.
⁴ Viktor E. Frankl, concetto di “flight from fear” (fuga dalla paura) elaborato nei suoi studi sulla logoterapia come meccanismo che paradossalmente rafforza l’ansia invece di ridurla.
⁵ Sul rapporto tra mancanza di significato e vulnerabilità alla manipolazione attraverso la paura, vedi Viktor E. Frankl, “L’uomo in cerca di senso”, e i suoi studi sul “vuoto esistenziale” (existential vacuum) che rende gli individui più suscettibili al controllo esterno.
Scopri di più da Il Franti
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

