Cerca nel Franti
Hack - Istruzioni per l’uso

La dipendenza dai social media: cosa sta accadendo

Mentre negli Stati Uniti il fondatore di Meta viene interrogato da una giuria e il Congresso accelera su nuove leggi, l’Europa pubblica linee guida e il Parlamento chiede l’età minima a 16 anni. Ma una domanda attraversa l’Atlantico: siamo certi che i divieti siano unica soluzione, quando siamo di fronte ad un tema anche generazionale e di libertà da affrontare?

Li Yongzheng, particolare di "Historical Literature", 2021,

L’immagine in evidenza è un particolore dell’opera di Li Yongzheng, “Historical Literature”, 2021, Nel profondo di questo deserto, MART Rovereto , 2025

Mentre negli Stati Uniti il fondatore di Meta viene interrogato da una giuria e il Congresso accelera su nuove leggi, l’Europa pubblica linee guida e il Parlamento chiede l’età minima a 16 anni. Ma una domanda attraversa l’Atlantico: siamo certi che i divieti siano unica soluzione, quando siamo di fronte ad un tema anche generazionale e di libertà da affrontare?

Premessa: perché questo articolo riguarda anche noi

Quello che sta accadendo negli Stati Uniti sul fronte della protezione dei minori nel mondo digitale non è solo una questione americana. È lo specchio anticipato di ciò che l’Europa, e l’Italia in particolare, dovrà affrontare con urgenza crescente. I fatti che racconteremo in queste righe devono fare riflettere: che cosa stiamo facendo, noi, in Europa? E soprattutto: che cosa dovremmo fare?

Anche perchè come abbiamo già visto, I nostri figli stanno pagando il prezzo più alto. (1)

La tentazione più immediata è quella dei divieti: vietare l’accesso ai social media sotto una certa età, imporre verifiche dell’identità, punire le piattaforme inadempienti. È una risposta comprensibile, ma già i fatti americani dimostrano che non è sufficiente. Instagram vieta l’accesso ai minori di 13 anni dalla sua nascita, eppure nel 2015 si stimavano oltre 4 milioni di utenti sotto quell’età solo negli Stati Uniti. Le leggi ci sono, ma da sole non bastano.

C’è poi la logica dei controlli: algoritmi di rilevamento, scansione delle immagini, intelligenza artificiale per intercettare i predatori. Strumenti necessari, ma che rincorrono un problema senza mai risolverlo alla radice, in una rincorsa tecnologica dove i criminali si adattano più velocemente dei legislatori.

E c’è un rischio ulteriore, tutt’altro che teorico: ogni sistema di verifica dell’identità concepito a fin di bene, per proteggere un minore, per impedire un accesso, porta con sé il germe della schedatura e del controllo sociale. La storia ci insegna che strumenti nati per scopi anche nobili tendono ad essere utilizzati per fini che di quel bene sono l’esatto contrario, Nobel insegna.

E infine c’è una strada meno battuta, più faticosa e coraggiosa, e forse l’unica realmente efficace nel tempo: l’educazione alla responsabilità sociale.

Non la pagina istituzionale di un sito governativo che nessuno legge, non l’ora di “cittadinanza digitale” svuotata di senso, ma una responsabilità concreta, che coinvolga chi produce queste tecnologie, chi le diffonde, chi le usa e chi educa al loro uso. Una responsabilità che non sia paternalistica, perché non viviamo più in quell’epoca, ma che costruisca consapevolezza reale: comprendere le proprie libertà, i propri doveri, i propri diritti nell’ambiente digitale.

La logica paternalistica va superata, non perché i giovani non vadano protetti, ma perché la protezione più duratura è quella che nasce dalla comprensione, non dal divieto. E i fatti americani che seguono lo dimostrano con chiarezza: dove c’è il divieto senza cultura, c’è l’aggiramento del divieto causato dalla deresponsabilizzazione di chi dovrebbe essere responsabile. Un gioco di deleghe della responsabilità dove i più deboli pagano il conto.

Il contesto: l’audizione del 31 gennaio 2024

Per comprendere cosa sta accadendo oggi, occorre partire dal 31 gennaio 2024, quando la Commissione Giustizia del Senato degli Stati Uniti, l’organo parlamentare che si occupa di questioni giuridiche e costituzionali, convocò un’audizione storica intitolata “Big Tech and the Online Child Sexual Exploitation Crisis” (Le grandi aziende tecnologiche e la crisi dello sfruttamento sessuale dei minori online).

Davanti ai senatori comparvero cinque amministratori delegati delle più grandi piattaforme digitali del mondo: Mark Zuckerberg (Meta, proprietaria di Facebook e Instagram), Shou Chew (TikTok), Evan Spiegel (Snap, proprietaria di Snapchat), Linda Yaccarino (X, ex Twitter) e Jason Citron (Discord). Alcuni volontariamente, altri costretti tramite subpoena, cioè un mandato di comparizione obbligatorio, nel caso di Citron, fu necessario inviare i US Marshals (polizia giudiziaria federale) presso la sede dell’azienda.

I dati presentati erano sconvolgenti: le segnalazioni annuali di materiale pedopornografico al NCMEC, il National Center for Missing and Exploited Children, l’organismo nazionale americano per la protezione dei minori scomparsi e sfruttati, avevano raggiunto i 36,2 milioni nel 2023 (circa 99.000 al giorno, arrotondate a 100.000 dal senatore Durbin nel suo intervento), un numero che include anche segnalazioni duplicate e materiale virale ricondiviso, ma che resta indicativo della scala del fenomeno. I casi di sextortion finanziaria (un crimine in cui un predatore ottiene immagini intime da un minore e poi lo ricatta chiedendo denaro) erano esplosi da 139 nel 2021 a oltre 22.000 nel 2023.

Il senatore Lindsey Graham si rivolse direttamente a Zuckerberg dicendogli che le aziende presenti avevano “sangue sulle mani” e che i loro prodotti stavano “uccidendo le persone”. Quando incalzò il CEO di Discord chiedendogli il supporto alle cinque proposte di legge bipartisan già approvate all’unanimità dalla Commissione, tra cui il STOP CSAM Act (una legge per consentire alle vittime di citare in giudizio le piattaforme che ospitano consapevolmente materiale di abuso sessuale su minori), l’EARN IT Act (una legge che vincola le protezioni legali delle piattaforme al rispetto di standard minimi di sicurezza), e lo SHIELD Act (una legge per criminalizzare la diffusione non consensuale di immagini intime), ricevette solo risposte evasive, che lo portarono a concludere: “Se aspettate che queste aziende risolvano il problema, morirete aspettando.”

Un elemento cruciale di quel dibattito era la Sezione 230 del Communications Decency Act, una norma americana del 1996 che garantisce alle piattaforme online l’immunità legale per i contenuti pubblicati dagli utenti. Per capirci: è come se un editore non potesse essere citato in giudizio per ciò che viene stampato nel suo giornale. Questa protezione, nata per favorire la crescita di un’internet ancora nascente, è diventata secondo molti legislatori uno scudo dietro cui le Big Tech si nascondono per evitare ogni responsabilità, inclusa quella per lo sfruttamento dei minori sulle proprie piattaforme. Graham e altri senatori ne hanno chiesto l’abolizione o la riforma radicale.

Il REPORT Act: la prima legge che funziona

Pochi mesi dopo quell’audizione, il 7 maggio 2024, il presidente Biden firmò il REPORT Act (Revising Existing Procedures On Reporting via Technology Act), una legge bipartisan dei senatori Marsha Blackburn (Repubblicana, Tennessee) e Jon Ossoff (Democratico, Georgia).

Come funziona il sistema di segnalazione? Il NCMEC gestisce la CyberTipline, una piattaforma centralizzata attraverso la quale le aziende tecnologiche e i cittadini possono segnalare casi sospetti di sfruttamento sessuale di minori online. Prima del REPORT Act, le piattaforme erano obbligate a segnalare solo il ritrovamento di materiale pedopornografico (detto CSAM, Child Sexual Abuse Material, cioè materiale che documenta abusi sessuali su minori). Il REPORT Act ha esteso questo obbligo a due nuove categorie di reato: il traffico sessuale di minori e l’adescamento online (online enticement, cioè il tentativo di indurre un minore a compiere atti sessuali). Ha inoltre aumentato il periodo di conservazione delle prove da 90 giorni a un anno, dando alle forze dell’ordine più tempo per indagare, e ha innalzato le sanzioni per le aziende inadempienti fino a un milione di dollari.

I risultati sono stati clamorosi. Come ha testimoniato Melissa Snow, direttrice dei programmi anti-trafficking del NCMEC, davanti Camera dei Rappresentanti (House Oversight Committee, Sottocommissione per la Cybersicurezza) il 10 dicembre 2025: nel 2023, prima dell’entrata in vigore della legge, le piattaforme avevano inviato volontariamente 8.480 segnalazioni relative al traffico sessuale di minori. Nei primi 11 mesi del 2025, il primo anno pieno di applicazione, le segnalazioni sono salite a 98.489. Un incremento di oltre il 1.000% che rivela non tanto un aumento dei crimini, quanto la dimensione di ciò che prima restava sommerso e non segnalato.

Ma il dato contiene anche un’ombra inquietante: il NCMEC ha rilevato che le segnalazioni complessive alla CyberTipline nel 2024 sono state inferiori all’anno precedente, nonostante la nuova legge. Il motivo? Alcune piattaforme non segnalano come dovrebbero, e la crescente adozione della crittografia end-to-end, una tecnologia che protegge la privacy delle comunicazioni rendendole illeggibili persino per la piattaforma stessa, impedisce di rilevare materiale illecito. È il paradosso della privacy: la stessa tecnologia che protegge i cittadini da sorveglianza e abusi diventa lo scudo dietro cui si nascondono i predatori, ma qui il discorso esula da questo contesto.

Zuckerberg davanti alla giuria: il “momento Big Tobacco” dei social media

Il 18 febbraio 2026, Mark Zuckerberg ha testimoniato per la prima volta davanti a una giuria popolare in un processo civile presso la Corte Superiore di Los Angeles.

Per tutti noi è utile comprendere il meccanismo. Negli Stati Uniti, i cittadini possono citare in giudizio le aziende non solo per danni materiali, ma anche per difetti di progettazione dei prodotti. È lo stesso principio per cui si possono citare una casa automobilistica per un difetto di fabbrica o un’azienda farmaceutica per effetti collaterali nascosti. La domanda al centro di questo processo è: i social media sono “prodotti difettosi” progettati per sfruttare le vulnerabilità del cervello dei giovani?

La querelante è K.G.M. (identificata anche con il nome Kaley), una ventenne californiana che accusa Meta (proprietaria di Instagram) e YouTube (di proprietà di Google) di aver progettato piattaforme intenzionalmente addictive. Kaley ha iniziato a usare YouTube a 6 anni e Instagram a 9. Sostiene che le funzionalità di queste piattaforme, lo scrolling infinito (lo scorrimento senza fine del contenuto), l’autoplay (la riproduzione automatica dei video), i filtri di bellezza, i “mi piace” visibili, l’abbiano resa dipendente, causandole ansia, dismorfismo corporeo (una percezione distorta del proprio aspetto fisico) e pensieri suicidari.

Questo processo è stato definito dagli esperti il “momento Big Tobacco” dei social media, un riferimento storico che un lettore italiano può comprendere bene: negli anni ’90, l’industria del tabacco americana fu costretta a rispondere in tribunale per aver nascosto le prove della dannosità e dipendenza da sigarette. Oggi, la stessa logica viene applicata alle piattaforme digitali. E come allora, l’esito potrebbe riscrivere le regole di un’intera industria: il verdetto della giuria di Los Angeles influenzerà oltre 1.600 cause pendenti, presentate da famiglie e distretti scolastici in tutti gli Stati Uniti.

TikTok e Snap avevano raggiunto accordi extragiudiziali con K.G.M. prima dell’inizio del processo (il che, nel diritto americano, equivale a un risarcimento economico senza ammissione di colpa), ma restano coinvolti in cause analoghe.

Durante l’interrogatorio condotto dall’avvocato della querelante, Mark Lanier, Zuckerberg ha mantenuto la posizione già espressa nell’audizione al Senato del 2024: la ricerca scientifica, a suo dire, non ha dimostrato un nesso causale tra social media e danni alla salute mentale dei giovani. Ha affermato di voler costruire un prodotto “sostenibile nel lungo periodo” e ha negato che Meta progetti Instagram per creare dipendenza. Ha definito “paternalistico” l’idea di rimuovere i filtri di bellezza digitale dalla piattaforma, pur ammettendo che una dipendente di Meta, madre di due figlie adolescenti, lo aveva avvertito dell’impatto di quei filtri sulle ragazze.

Lanier ha però mostrato alla giuria documenti interni di Meta che stimavano oltre 4 milioni di utenti sotto i 13 anni su Instagram nel 2015, e un documento di “obiettivi” del 2022 che prevedeva una crescita del tempo medio giornaliero di utilizzo da 40 a 46 minuti. Ha poi srotolato davanti alla giuria un collage di 10 metri con centinaia di selfie pubblicati dalla querelante su Instagram, chiedendo a Zuckerberg se il suo account fosse mai stato controllato per un utilizzo così intensivo da parte di una minorenne.

Matt Bergman, fondatore del Social Media Victims Law Center (Centro legale per le vittime dei social media), ha dichiarato che la testimonianza di Zuckerberg rappresenta il momento che le famiglie di tutta l’America aspettavano. Fuori dall’aula, i genitori presenti, molti dei quali erano gli stessi dell’audizione del 2024, quando Zuckerberg si era girato verso il pubblico per scusarsi, hanno raccontato storie di figli persi. Tra loro Tammy Rodriguez, madre di Selena, morta suicida a 11 anni nel 2021 dopo una presunta dipendenza da Instagram e Snapchat: la sua è stata la prima delle 1.500 cause depositate.

Un dettaglio significativo: la giudice Carolyn B. Kuhl ha minacciato di procedere per oltraggio alla corte contro chiunque avesse usato gli occhiali smart Meta Ray-Ban (dotati di fotocamera e intelligenza artificiale) durante la testimonianza di Zuckerberg, dopo che membri della scorta del CEO erano stati visti indossarli all’ingresso del tribunale. In un’aula dove si discute dei danni della tecnologia, il prodotto dell’imputato si presentava come ulteriore strumento di sorveglianza.

Il Kids Off Social Media Act: Cruz punta alla firma di Trump

A gennaio 2026, il senatore Ted Cruz (Repubblicano, Texas), presidente della Commissione Commercio del Senato, l’organo che supervisiona telecomunicazioni, commercio e tecnologia, ha tenuto un’audizione intitolata “Plugged Out: Examining the Impact of Technology on America’s Youth” (Disconnessi: esaminare l’impatto della tecnologia sui giovani americani).

Cruz ha rilanciato il KOSMA , Kids Off Social Media Act (Legge per tenere i bambini lontani dai social media), un disegno di legge bipartisan presentato insieme al senatore Brian Schatz (Democratico, Hawaii) e già approvato in commissione con ampio consenso nel febbraio 2025. La proposta prevede tre misure principali: il divieto di accesso ai social media per i minori di 13 anni; il divieto per le piattaforme di utilizzare algoritmi di raccomandazione personalizzata (cioè quei sistemi automatizzati che decidono quali contenuti mostrare a ciascun utente, basandosi sul suo comportamento) per gli utenti sotto i 17 anni; e restrizioni all’uso dei cellulari nelle scuole che ricevono fondi federali.

Cruz ha citato dati del Common Sense Census 2021 secondo cui i bambini tra 8 e 12 anni trascorrevano in media cinque ore e mezza al giorno davanti a uno schermo, cifra che saliva a otto ore e 39 minuti per gli adolescenti, vale a dire che oltre metà del tempo in cui un teenager è sveglio veniva trascorso davanti a un display.

Dati che, pur risalendo a quattro anni prima e influenzati dall’aumento del tempo-schermo durante la pandemia, restano i più citati nel dibattito legislativo americano. Cruz ha espresso l’intenzione di portare la legge sulla scrivania del presidente Trump per la firma.

L’NCMEC al Senato: le nuove frontiere dello sfruttamento

Il 9 dicembre 2025, il NCMEC ha testimoniato nuovamente al Senato nell’audizione “Protecting Our Children Online Against the Evolving Offender” (Proteggere i nostri bambini online contro il predatore che si evolve), presentando un quadro che ha scosso i legislatori.

Lauren Coffren, direttrice esecutiva della Divisione Bambini Sfruttati (Exploited Children Division) del NCMEC, ha descritto tre forme di sfruttamento in crescita esplosiva che colpiscono bambini anche di soli 12 anni:

La sextortion finanziaria (financial sextortion): un crimine in cui i predatori, spesso reti criminali organizzate, frequentemente basate in Nigeria o nelle Filippine, contattano un minore sui social media, fingendosi coetanei attraenti. Attraverso la manipolazione psicologica, ottengono immagini intime della vittima, poi la ricattano chiedendo denaro sotto minaccia di diffondere le immagini. Le segnalazioni sono aumentate del 33% nel 2024 e almeno 36 ragazzi americani si sono tolti la vita dal 2021 secondo il NCMEC, cifra salita a 40 nelle stime presentate al Senato a maggio 2025. . La testimonianza della madre Tamia Woods ha dato un volto umano a questi numeri: suo figlio James, 17 anni, si è suicidato dopo 19 ore e mezza di sextortion e 400 messaggi ricattatori.

Lo sfruttamento sadistico online (sadistic online exploitation): una forma ancora più estrema in cui i predatori non chiedono denaro, ma costringono i minori ad atti di autolesionismo, mutilazione, e persino violenza verso altri, documentandoli con video. Le segnalazioni sono aumentate di oltre il 200% nel 2024.

Il CSAM generato dall’intelligenza artificiale: i predatori utilizzano strumenti di intelligenza artificiale generativa (software capaci di creare immagini, video e testi realistici partendo da semplici istruzioni testuali, come ad esempio DALL-E, Midjourney o modelli open source) per produrre materiale pedopornografico sintetico, immagini di minori che non esistono, o immagini manipolate di minori reali.

Nel 2024, le segnalazioni legate all’IA generativa alla CyberTipline sono aumentate del 1.325% rispetto al 2023 (da 4.700 a 67.000).

Ma il dato più impressionante è il confronto semestrale: nei primi sei mesi del 2025, le segnalazioni contrassegnate come “GAI” sono esplose da 6.835 (stesso periodo 2024) a oltre 440.000. Precisazione importante: un’indagine di Bloomberg pubblicata a gennaio 2026 e un’analisi della Stanford Internet Observatory hanno rivelato che circa il 78% di quelle segnalazioni (oltre 380.000) proveniva da Amazon, che aveva selezionato il checkbox “Generative AI” nel modulo della CyberTipline perché stava scansionando i dati di addestramento dei propri modelli IA alla ricerca di CSAM già noto, nessuna di quelle segnalazioni riguardava materiale effettivamente generato dall’IA.

Si trattava di corrispondenze con hash di immagini di abuso già note, trovate nei dataset di addestramento. Come ha scritto la ricercatrice di Stanford Riana Pfefferkorn, per sei mesi il pubblico, i legislatori e i media hanno creduto a un’esplosione di CSAM sintetico che in gran parte non era tale. La cifra resta allarmante, indica la presenza massiccia di materiale pedopornografico reale nei dataset usati per addestrare i modelli IA, ma il suo significato è radicalmente diverso da come è stato presentato. Il NCMEC ha riconosciuto l’ambiguità del checkbox e la necessità di riformare il modulo di segnalazione.

Questi strumenti vengono anche usati per il ricatto: un predatore può prendere una foto innocente di un minore dal suo profilo social, generare un’immagine sessualmente esplicita tramite IA, e usarla per ricattarlo dicendo “nessuno crederà che non sei tu”.

Per la prima volta nella sua storia, il NCMEC ha pubblicato un rapporto semestrale a metà 2025, anziché attendere i dati annuali, a causa dell’impennata senza precedenti nelle segnalazioni.

Il TAKE IT DOWN Act: la risposta ai deepfake

Il 19 maggio 2025, il presidente Trump ha firmato il TAKE IT DOWN Act (Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, letteralmente: Strumenti per affrontare lo sfruttamento noto immobilizzando i deepfake tecnologici su siti web e reti).

Si tratta della prima legge federale americana che criminalizza la pubblicazione di immagini intime non consensuali, includendo esplicitamente quelle generate dall’intelligenza artificiale (i cosiddetti deepfake: video o immagini manipolati digitalmente per far apparire una persona in situazioni mai realmente accadute). La legge obbliga le piattaforme a rimuovere questi contenuti entro 48 ore dalla segnalazione della vittima, con sanzioni fino a tre anni di carcere per chi li pubblica se riguardano minori. L’obbligo di predisporre procedure di rimozione scatterà il 19 maggio 2026.

La legge è stata sostenuta trasversalmente: dal senatore repubblicano Ted Cruz alla senatrice democratica Amy Klobuchar, dalla First Lady Melania Trump alle organizzazioni per le vittime. Significativamente, la stessa Linda Yaccarino (CEO di X) — una delle cinque convocate nell’audizione del 2024 — era presente alla cerimonia di firma alla Casa Bianca, dichiarando l’impegno della sua piattaforma a rendere Internet più sicuro per i bambini.

E l’Europa? Il DSA, le linee guida, e i limiti dell’approccio regolamentare

In Europa, il quadro normativo di riferimento è il DSADigital Services Act (Regolamento sui Servizi Digitali, Regolamento UE 2022/2065), in vigore dal 2024. Si tratta della normativa che stabilisce obblighi di trasparenza, moderazione dei contenuti e protezione degli utenti per tutte le piattaforme digitali che operano nell’Unione Europea.

Il 14 luglio 2025, la Commissione Europea ha pubblicato le linee guida sulla protezione dei minori ai sensi dell’articolo 28 del DSA. Queste raccomandazioni, che non sono vincolanti, ma funzionano come parametro per valutare la conformità delle piattaforme, prevedono: account privati per impostazione predefinita per i minorenni; modifica degli algoritmi di raccomandazione per ridurre l’esposizione a contenuti dannosi; possibilità per i minori di bloccare qualsiasi utente; divieto di aggiungerli a gruppi senza consenso esplicito; canali di segnalazione a misura di bambino.

Parallelamente, la Commissione sta sviluppando un’app europea di verifica dell’età una soluzione provvisoria in attesa del portafoglio di identità digitale europeo (EUDI Wallet), previsto entro la fine del 2026 che permetterà di verificare se un utente ha almeno 18 anni senza raccogliere dati personali.

Anche in questo caso vale quanto già evidenziato in precedenza sul tema del controllo sociale.

Nel novembre 2025, il Parlamento Europeo ha approvato una risoluzione (non vincolante) che chiede di fissare a 16 anni l’età minima per l’accesso ai social media, di vietare gli algoritmi di raccomandazione basati sul coinvolgimento, di proibire le “loot box” nei videogiochi (meccanismi simili al gioco d’azzardo), e di affrontare le sfide dei deepfake e delle app di “nudificazione” basate sull’IA. La risoluzione propone anche la responsabilità personale dei dirigenti delle piattaforme in caso di grave e persistente inosservanza delle norme sulla protezione dei minori.

In Italia, il Decreto Caivano del 2023 ha imposto ai siti pornografici di verificare l’età degli utenti, e l’AGCOM ha adottato nel 2025 un regolamento sulle modalità tecniche di verifica dell’età. Ma il quadro resta frammentario e prevalentemente orientato al controllo piuttosto che alla prevenzione culturale.

La lezione americana e la sfida europea: oltre i divieti

Ricapitoliamo la sequenza americana: nel 2024 un’audizione storica; nel 2024-2025 due leggi firmate (REPORT Act e TAKE IT DOWN Act); nel 2025-2026 nuovi disegni di legge in avanzamento (KOSMA, KOSA, STOP CSAM Act); nel 2026 il primo processo civile davanti a una giuria. Nel frattempo, le segnalazioni di sfruttamento esplodono, l’intelligenza artificiale moltiplica le minacce, e la crittografia complica la sorveglianza.

Il bilancio è ambivalente: da un lato, il REPORT Act dimostra che obbligare le piattaforme a segnalare porta alla luce un sommerso enorme. Dall’altro, nessuna legge ha fermato la crescita dello sfruttamento. Le piattaforme aggirano o ritardano; i predatori si adattano; la tecnologia corre più veloce del legislatore.

Per l’Europa, e per l’Italia, la lezione è chiara: i divieti e i regolamenti sono necessari ma non sufficienti. Il DSA è uno strumento importante, le linee guida della Commissione sono un passo avanti, la verifica dell’età è un tassello utile. Ma tutto questo resta infrastruttura normativa, necessaria, certo, come sono necessarie le fondamenta di un edificio, ma insufficiente senza ciò che vi si costruisce sopra.

Ciò che manca, negli Stati Uniti come in Europa, è un approccio che superi la logica paternalistica del “proteggiamo i minori da qualcosa” per abbracciare quella, più complessa ma più duratura, del “costruiamo con i minori la capacità di comprendere qualcosa”, anche perchè il comprendere qualcosa non è solo un tema che interessa i minori.

Non si tratta di rinunciare alla protezione: nessuno mette in discussione che un bambino di 9 anni non debba trovarsi su Instagram, né che un predatore debba essere perseguito con ogni mezzo. Si tratta di riconoscere che la protezione legislativa, da sola, è un argine che l’acqua aggira e la storia sin dal proibizionismo, al fumo e altro ancora insegna.

La responsabilità deve essere condivisa e concreta: di chi produce queste tecnologie (che deve integrare la sicurezza nella progettazione, non aggiungerla dopo come concessione alle pressioni politiche); di chi le diffonde (che deve smettere di trattare i minori, e non solo loro, come fonte di engagement e ricavo pubblicitario); di chi le usa (che deve essere messo nelle condizioni di comprendere, non solo di obbedire); e di chi educa (che deve disporre di strumenti reali, non di pagine istituzionali che nessuno consulta).

Libertà, doveri e diritti nel mondo digitale non sono concetti astratti: sono ciò che ogni giorno ognuno negozia, spesso da solo, ogni volta che apre un’app sul suo telefono, si scrive ad una piattaforma, paga un biglietto aereo, o altro che coinvolga una piattaforma digitale. Se non abbiamo gli strumenti per farlo consapevolmente, nessuna legge al mondo lo farà al posto nostro, e come poi noi potremmo proteggere i più deboli, e i minori?

(1) I nostri figli stanno pagando il prezzo più alto.

Nota di aggiornamento (23 febbraio 2026)

Il processo di Los Angeles è ancora in corso. Il 19 febbraio ha testimoniato Brian Boland, ex dirigente che ha costruito la macchina pubblicitaria di Meta per oltre un decennio, descrivendo come le ambizioni di ricavo dell’azienda abbiano influenzato la progettazione dei prodotti (Tech Policy Press). Il vicepresidente dell’ingegneria di YouTube, Cristos Goodrow, è atteso in aula nei prossimi giorni. Il processo potrebbe durare ancora diverse settimane.

Parallelamente, Meta affronta un secondo processo in New Mexico, avviato dall’Attorney General dello Stato, che accusa l’azienda di non aver impedito lo sfruttamento sessuale di minori sulle sue piattaforme. Non è chiaro se Zuckerberg testimonierà anche in quel procedimento (NPR).

Tra i documenti interni emersi in aula, un’email di Nick Clegg, ex vicepresidente per gli affari globali di Meta, indirizzata a Zuckerberg e ad altri top manager, ammetteva che i limiti di età delle piattaforme erano “unenforced (unenforceable?)” — non applicati (inapplicabili?) — e che le politiche divergenti tra Instagram e Facebook rendevano “difficile sostenere che stiamo facendo tutto il possibile” (Rappler/Reuters).

Fonti per chi vuole approfondire

Audizione del Senato USA – 31 gennaio 2024

Processo civile di Los Angeles – Testimonianza di Zuckerberg, 18 febbraio 2026

REPORT Act

NCMEC – Testimonianze al Congresso e dati

Kids Off Social Media Act (KOSMA)

TAKE IT DOWN Act

Kids Online Safety Act (KOSA) e iter legislativo

Pacchetto legislativo Grassley-Durbin (dicembre 2025)

Caveat dati GAI-CSAM: indagine Stanford/Bloomberg (gennaio-febbraio 2026)

Europa – DSA, linee guida e risoluzioni

Monitoraggio globale


Scopri di più da

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

avatar dell'autore
Massimo V.A. Manzari
L'URL breve di questo articolo è: https://www.ilfranti.it/elbs