Vista elenco

Ricevuto ieri — 18 Gennaio 2026
Ricevuto prima di ieri

Absolute Resolve e l’evoluzione dell’impiego offensivo del cyber power statunitense

15 Gennaio 2026 ore 07:00

Con l’operazione Absolute Resolve, gli Stati Uniti potrebbero aver segnato un punto di svolta nell’impiego del cyber power. Le allusioni pubbliche di Donald Trump al blackout venezuelano rompono la tradizionale ambiguità sull’uso offensivo del cyberspazio, contribuendo a normalizzare la cyber warfare come strumento centrale della coercizione strategica americana.

It was dark, the lights of Caracas were largely turned off due to a certain expertise that we have. It was dark, and it was deadly.” Con queste parole pronunciate il 3 gennaio 2026, poche ore dopo l’operazione Absolute Resolve, il presidente degli Stati Uniti Donald Trump ha offerto una delle descrizioni pubbliche più suggestive — e controverse — di un’azione militare statunitense nell’era moderna. La frase, pronunciata durante una conferenza stampa a Mar-a-Lago a commento del blitz che ha portato alla cattura di Nicolás Maduro, sta alimentando un acceso dibattito politico e militare proprio perché Trump ha collegato esplicitamente il blackout di Caracas a una “expertise” di Washington, suggerendo in modo implicito il possibile impiego di capacità cibernetiche offensive nel corso dell’azione. Questo tipo di allusione pubblica è inusuale per operazioni che coinvolgono potenzialmente strumenti digitali, dato che gli Stati Uniti raramente riconoscono apertamente l’uso di cyber power contro un altro Stato, nel solco di quella che in dottirna viene definita come “plausible deniability”.

Se questa ricostruzione trovasse conferma – come numerosi indizi operativi e dichiarazioni ufficiali lasciano intendere – ci troveremmo di fronte a uno dei casi più espliciti e politicamente rivendicati di impiego offensivo del cyber power statunitense contro una nazione sovrana. Un precedente di rilievo, destinato non solo a riaprire il dibattito sui limiti giuridici, strategici ed escalation-related dell’uso della forza nel dominio digitale, ma anche a segnare un punto di svolta nella piena maturazione delle Multi-Domain Operations (MDO) come paradigma operativo integrato e politcamente perseguito.

In questo senso, risultano particolarmente significative le parole del generale Dan Caine, Chairman del Joint Chiefs of Staff, pronunciate nel corso della medesima conferenza stampa. Caine ha infatti dichiarato che lo U.S. Cyber Command, lo U.S. Space Command e i comandi operativi regionali avevano “iniziato a stratificare effetti differenti” con l’obiettivo di “creare un corridoio operativo” per l’ingresso delle forze statunitensi nel Paese. Pur evitando deliberatamente di precisare la natura di tali effetti, la dichiarazione conferma implicitamente il ricorso a una pianificazione multidominio in cui le capacità cyber e spaziali hanno svolto un ruolo abilitante fin dalle fasi iniziali dell’operazione.

Da quanto emerge, Absolute Resolve non è stata una semplice operazione cinetica, bensì un’azione pianificata e condotta attraverso la sincronizzazione intenzionale di molteplici leve operative distribuite su diversi domini. Le capacità di HUMINT sono state impiegate per penetrare e destabilizzare la cerchia più ristretta del regime venezuelano, mentre la SIGINT ha permesso l’identificazione, il tracciamento dinamico del bersaglio in tempo quasi reale. A queste dimensioni si sono affiancate operazioni di cyber warfare offensiva, orientate alla neutralizzazione di nodi infrastrutturali critici e alla degradazione dell’ambiente informativo, nonché attività di guerra elettronica e Navigation Warfare, finalizzate a erodere e sopprimere la bolla difensiva costruita attorno al regime con sistemi di origine russa e cinese.

Questa convergenza multidimensionale restituisce l’immagine di una trasformazione profonda del modo di fare la guerra: i domini informativo e digitale non operano più come semplici moltiplicatori di efficacia a supporto delle operazioni cinetiche, ma assumono una funzione strutturale e abilitante del disegno strategico complessivo, contribuendo in modo determinante a modellare il campo di battaglia prima, durante e dopo l’impiego della forza militare tradizionale.

L’elemento cyber più evidente di Absolute Resolve è rappresentato dal blackout che ha colpito Caracas intorno alle 02:00 locali, proprio mentre le forze statunitensi si avvicinavano alla capitale. Secondo numerosi osservatori e specialisti, l’interruzione dell’energia elettrica non appare riconducibile a bombardamenti fisici diretti, ma piuttosto a un attacco cyber mirato contro i sistemi industriali di controllo (SCADA) che regolano la distribuzione dell’energia dalla diga di Guri — principale fonte elettrica del Paese. Questa interpretazione è coerente con dichiarazioni ufficiali che includono lo U.S. Cyber Command tra le forze coinvolte nella creazione di “effetti stratificati” a supporto dell’azione militare, pur senza dettagli operativi precisi. 

Seguendo questo ragionamento, il blackout non sarebbe stato il risultato di un evento improvviso o isolato, bensì la fase finale di una campagna informatica pianificata con mesi di anticipo. Tale attacco avrebbe richiesto, difatti, un accesso prolungato ai sistemi di controllo della rete elettrica venezuelana e un’attenta mappatura delle dipendenze tra tecnologie IT e OT, al fine di individuare i punti critici da colpire e ottenere una paralisi mirata e temporanea della rete.  

L’accesso iniziale agli asset strategici sarebbe stato ottenuto attraverso tecniche di compromissione della supply chain e furto di credenziali, seguito da una fase di deep reconnaissance volta a comprendere le relazioni di controllo tra dispositivi e processi industriali. In quella fase preparatoria, gli attaccanti avrebbero potuto alterare gradualmente configurazioni, inserire codice malevolo e creare condizioni di vulnerabilità difficili da rilevare. La sequenza operativa finale si sarebbe svolta in tre fasi distinte: preparazione dell’ambiente, modellamento delle relazioni di controllo e attivazione sincrona dell’interruzione dei servizi. Nel momento in cui i blackout si sono verificati, alle 02:00, gli elicotteri e i mezzi aerei delle forze statunitensi stavano già entrando a Caracas solamente un minuto più tardi, alle 02:01.  

Questa lettura – sebbene non ancora confermata ufficialmente nei dettagli tecnici – sembra rafforzata dal fatto che l’infrastruttura elettrica venezuelana, fortemente dipendente da un unico nodo come la diga di Guri, ha già una storia di frequenti interruzioni strutturali negli anni precedenti, dimostrandosi particolarmente vulnerabile a interferenze da remoto e attacchi cyber,

Un ulteriore elemento di analisi riguarda, come accennato, l’impiego di tecniche di Navigation Warfare (NavWar), coordinate presumibilmente dallo U.S. Space Command, che sembrano aver accompagnato le fasi di avvicinamento all’operazione. Diverse ricostruzioni riportano che nei giorni precedenti all’attacco si siano verificati episodi di jamming e spoofing del segnale GPSl ungo la costa venezuelana, con un duplice effetto operativo: da un lato, degradare la capacità di navigazione e sincronizzazione dei sistemi civili e militari del regime; dall’altro, garantire alle forze statunitensi una superiorità informativa e operativa grazie all’uso di segnali GPS protetti e resistenti alle interferenze, facilitando così il movimento e l’impiego di assetti terrestri, aerei e navali in un ambiente ostile.

Questa manipolazione deliberata del dominio della navigazione radio evidenzia come, già prima dell’inizio dell’azione cinetica, siano stati messi in atto strumenti non convenzionali per erodere la capacità di comando e controllo venezuelana e per rafforzare la precisione e la sicurezza delle operazioni.

A rafforzare questa interpretazione contribuisce anche il dato relativo alla connettività di rete: il gruppo giornalistico di monitoraggio di Internet NetBlocks ha registrato una marcata riduzione dell’accesso a Internet in vaste aree di Caracas proprio durante le ore in cui si svolgeva l’operazione, in coincidenza con i blackout elettrici. Questa corrispondenza temporale difficilmente può essere spiegata come un evento puramente accidentale e risulta più coerente con un’azione deliberata di degradazione delle comunicazioni e dell’infrastruttura informativa, capace di ostacolare la capacità di comando e controllo delle forze venezuelane e di indebolire la reattività del regime. 

Particolarmente significativa è stata anche l’integrazione tra SIGINT e cyber-intelligence, che ha costituito l’ossatura operativa “invisibile” di Absolute Resolve. Le attività plausibilmente condotte includono l’intercettazione delle telecomunicazioni venezuelane, sfruttando la configurazione delle dorsali regionali che transitano per nodi situati negli Stati Uniti, nonché l’impiego di falsi ripetitori (IMSI catcher) e veicoli aerei unmanned SIGINT (come i droni MQ-9 Reaper) per monitorare lo spettro elettromagnetico e/o identificare e triangolare i dispositivi mobili appartenenti all’entourage di Nicolás Maduro. 

Questo uso assertivo del cyber power non nasce nel vuoto. Già nel 2018 l’amministrazione Donald Trump aveva adottato un memorandum riservato volto ad ampliare significativamente l’autonomia del Pentagono nella conduzione di operazioni informatiche offensive, successivamente affinato sotto l’amministrazione Biden. La vera discontinuità, tuttavia, non risiede tanto nel quadro dottrinale o autorizzativo, quanto nel livello di esposizione e rivendicazione politica di tali capacità.

I commenti di Trump successivi all’operazione rappresentano infatti uno dei rari casi in cui un presidente degli Stati Uniti abbia alluso in modo così esplicito all’impiego di cyber offensive operations contro un altro Stato sovrano. È una scelta comunicativa che contribuisce a normalizzare l’uso del dominio digitale come strumento di coercizione strategica, collocandolo apertamente sullo stesso piano — se non addirittura in posizione prioritaria — rispetto alla forza cinetica tradizionale. Ed è anche un avvertimento a Cina, Russia Iran, e a tutti i principali cyber competitors di Washington.

Absolute Resolve segna un passaggio cruciale nella storia recente della guerra contemporanea per almeno tre ragioni fondamentali.

In primo luogo, rappresenta un salto di qualità nella cyber warfare, dimostrando come le operazioni cibernetiche possano essere impiegate non solo come strumenti di disturbo o sabotaggio episodico, ma come armi strategiche capaci di modellare l’ambiente operativo in modo decisivo, selettivo e temporalmente sincronizzato con l’azione militare convenzionale.

In secondo luogo, l’operazione costituisce una maturazione concreta delle Multi-Domain Operations, non più intese come mera giustapposizione di domini, ma come integrazione funzionale in cui effetti cyber, spaziali, informativi ed elettromagnetici precedono e abilitano l’impiego della forza cinetica. 

Infine, Absolute Resolve segna un avanzamento politico e normativo implicito: l’uso pubblico e rivendicato delle capacità cibernetiche offensive contribuisce a ridefinire le soglie di accettabilità e legittimità dell’azione statale nel cyberspazio, accelerando un processo di normalizzazione della cyber wardare che avrà implicazioni durature sul piano della deterrenza, dell’escalation e della stabilità strategica.

Absolute Resolve dimostra che il dominio cyber non è più uno strumento autonomo o meramente preparatorio, ma una capacità integrata, sincronizzata e politicamente spendibile, impiegata per generare effetti operativi immediati e abilitare l’azione militare convenzionale. Non più dunque “plausible deniability” ma “persistent engagement” e “defend forward”. A rendere questo passaggio particolarmente significativo è il fatto che, per la prima volta, una capacità cyber offensiva plausibile viene non solo impiegata, ma implicitamente rivendicata a livello politico, rompendo la tradizionale ambiguità che aveva finora accompagnato l’uso della forza nel dominio digitale. È questa convergenza tra dottrina, operazione e comunicazione strategica a segnare il vero salto di qualità rispetto al passato.

Apple, i dark pattern e la difficile battaglia contro il tracciamento

19 Novembre 2025 ore 12:00

Nel 2021 Apple ha introdotto App Tracking Transparency (ATT), una funzionalità del sistema operativo iOS che permette agli utenti, che prima dovevano districarsi tra interfacce confusionarie, di impedire con un solo click qualunque tracciamento, evitando quindi che qualsiasi app presente sul loro smartphone possa raccogliere dati personali a fini pubblicitari senza il loro consenso esplicito.

La funzionalità introdotta in iOS, il sistema operativo di iPhone e iPad, fornisce un servizio che, nell’internet dominata dal capitalismo della sorveglianza, rende una gran fetta di utenti più protetti. E questo l’ha resa particolarmente apprezzata: si stima infatti che il 75% degli utenti iOS la utilizzi.

Eppure ATT, in Italia e in altri paesi europei, potrebbe avere vita breve: “In Apple crediamo che la privacy sia un diritto umano fondamentale e abbiamo creato la funzionalità di App Tracking Transparency per offrire agli utenti un modo semplice per controllare se le aziende possono tracciare le loro attività su altre app e siti web. Una funzionalità accolta con entusiasmo dai nostri clienti e apprezzata dai sostenitori della privacy e dalle autorità per la protezione dei dati in tutto il mondo”, si legge in un comunicato. “Non sorprende che l’industria del tracciamento continui a opporsi ai nostri sforzi per dare agli utenti il controllo sui propri dati”.

ATT rischia di sparire

Nonostante il favore degli utenti, ATT è infatti oggetto in Italia di un’indagine dell’Autorità Garante della Concorrenza e del Mercato, che secondo diversi osservatori arriva dopo una forte pressione da parte dell’industria pubblicitaria. Le aziende del settore sostengono che la funzione sia “abusiva” perché duplicherebbe i consensi già richiesti dal GDPR. Apple respinge l’accusa e afferma che la normativa europea dovrebbe essere un punto di partenza, non un limite, e che ATT offre un livello di controllo più chiaro e immediato.

La decisione dell’AGCM è attesa entro il 16 dicembre e rischia di privare i consumatori di un prodotto informatico, ATT, che non solo è più funzionale dei singoli banner, ma che si potrebbe definire “naturale”: nel momento in cui tutte le app hanno bisogno di una stessa funzione (in questo caso, richiedere il consenso degli utenti alla profilazione) è più logico integrarla nel sistema operativo e offrirla in un’unica versione standard. ATT fa proprio questo: porta la richiesta di consenso al tracciamento a livello di sistema.

Nonostante ogni utente abbia il diritto di prestare o negare il consenso all’utilizzo dei suoi dati personali per fornire pubblicità mirata o rivenderli ai cosiddetti data broker, la semplicità d’uso di ATT di Apple rappresenta la differenza tra un consenso spesso “estorto” da interfacce appositamente convolute e opache e un consenso informato, libero, revocabile.

In base al GDPR, il regolamento europeo sulla protezione dei dati, ogni applicazione può trattare i nostri dati personali solo se esiste una delle sei basi giuridiche previste dalla legge. Tra queste, il consenso è quello più comunemente utilizzato. Poiché permette di effettuare una scelta in modo chiaro e semplice, l’ATT ha rapidamente raccolto l’effettivo interesse degli utenti, mostrando in maniera coerente come si può ottenere ciò che i vari garanti europei hanno chiarito nel tempo, ovvero che “rifiutare dev’essere facile quanto accettare”.

La strategia di Apple

Ma Apple ha fatto un altro passo avanti: non ha offerto ATT ai programmatori di app, ma l’ha imposta. Ha reso questo consenso necessario, al pari di quello che deve chiedere un’app quando, per esempio, vuole accedere alla localizzazione o al microfono. È direttamente il sistema operativo, sia in iOS sia in Android, che permette di scegliere se fornire o meno, per esempio, l’accesso al microfono al videogioco che abbiamo appena scaricato. In questo modo, lo spazio di manovra per trarre l’utente in inganno si riduce molto: possiamo vedere in una volta sola quali sono le app che richiedono quel privilegio e revocarlo a tutte in ogni momento.

Immaginiamo gli esiti nefasti che si sarebbero verificati nel mercato mobile se ogni app avesse potuto accedere, tramite formula ambigue per il consenso, a periferiche come microfono, localizzazione, cartelle e rubrica. È proprio per evitare questa situazione che i programmatori dei sistemi operativi hanno dato il controllo agli utenti, limitando di conseguenza la presenza di spyware e profilazione invasiva.

La possibilità di bloccare facilmente l’accesso a periferiche così delicate, soprattutto quando scarichiamo app dalla reputazione dubbia, ci dà un senso di protezione. Perché con il tracciamento dovrebbe essere diverso? Siamo certi che fornire l’accesso al microfono permetta di ottenere dati molto più rilevanti di quelli che si possono avere tramite la profilazione? In realtà, il tracciamento e la cessione di informazioni ai data broker dovrebbero evocare la stessa percezione di rischio. E quindi essere soggette, come fa in effetti l’ATT, a un simile trattamento a livello di consenso.

La differenza tra tracciamento e accesso alle periferiche

Una periferica è una porzione del sistema operativo: un’app può accedervi soltanto se le è stato concesso questo privilegio, altrimenti non ha modo di farlo. La garanzia del controllo delle aree più delicate di un sistema operativo è un elemento fondamentale della sicurezza informatica.

Il blocco al tracciamento, invece, è un insieme di misure tecniche: impedisce il fingerprinting (una tecnica che permette di identificare in modo univoco un utente o un dispositivo) e l’accesso all’Identificatore Unico Pubblicitario (un codice anonimo assegnato dal sistema operativo a ciascun dispositivo mobile, che permette alle app di riconoscere l’utente a fini pubblicitari), oltre a  costringere lo sviluppatore a esplicitare gli obiettivi del trattamento dati, pena la rimozione dall’Apple Store. Non è impossibile aggirare questi divieti, ma una funzione come ATT, che permette di attivarli con un’unica scelta, lo rende molto più complesso.

I miliardi persi da Meta

Per capire la posta in gioco: Meta ha affermato che ATT sarebbe stato, nel solo 2022, responsabile di una perdita pari a 10 miliardi di dollari (circa l’8% del fatturato 2021), causando una caduta in borsa del 26%. Il Financial Times stimò invece che, nel solo secondo semestre 2021, l’ATT introdotto da Apple fosse la causa di 9,85 miliardi di inferiori ricavi complessivi per Snap (la società del social network Snapchat), Facebook, Twitter e YouTube, segnalando l’ampiezza dell’impatto sull’intero ecosistema pubblicitario.

Nel suo report del 2022, lo IAB (Interactive Advertising Bureau, un’associazione di categoria delle aziende pubblicitarie e della comunicazione) menziona già nell’introduzione come la colpa di queste perdite sia in primo luogo dell’ATT e in secondo luogo del regolamento della California sui dati personali. Questo aspetto ci aiuta a mappare il conflitto: i diritti e il consenso vengono considerato come degli avversari da questi soggetti, che – nel tentativo di recuperare i miliardi perduti – sono disposti a mettere in campo tutto il loro potere legale, fino ad arrivare a un’interpretazione del diritto che dovrebbe essere un caso di studio.

In Europa, la privacy sul banco dell’antitrust

In diverse nazioni europee, in seguito alle denunce di associazioni di categoria, sono infatti state intentate cause contro Apple per “abuso di posizione dominante”. Non è però chiaro dove sia il beneficio diretto di Apple,  visto che anche le sue applicazioni devono rispondere all’ATT e quindi anche Apple deve chiedere il consenso per servire pubblicità personalizzata. Apple potrebbe al massimo avere un beneficio indiretto, penalizzando i principali concorrenti – i cui introiti provengono dalla pubblicità – mentre si avvantaggia dalla vendita di dispositivi promossi come “privacy first”.

Una delle interpretazioni fornite dalle associazioni di categoria è che gli sviluppatori di applicazioni terze debbano essere in grado di usare il loro form per la richiesta del consenso. Questo, però, ci porta ad affrontare un problema noto: quello dei dark pattern o deceptive design (interfacce ingannevoli), ovvero strategie di design che spingono l’utente a compiere scelte non pienamente consapevoli, per esempio rendendo più complesso rifiutare il tracciamento o l’iscrizione a un servizio rispetto ad accettarlo.

Dark pattern: perché la forma decide il contenuto

Come scrive Caroline Sinders, “le politiche per regolamentare Internet devono fare i conti con il design”, perché interfacce e micro-scelte grafiche possono “manipolare invece che informare” e svuotare principi come il consenso: “I dark pattern sono scelte di design che confondono gli utenti o li spingono verso azioni che non desiderano davvero”. E fanno tutto ciò, tipicamente, rendendo molto facile dire di sì e invece complesso o ambiguo dire di no.

Non si tratta di astrazioni. Nel 2024, NOYB (il centro europeo per i diritti digitali) ha analizzato migliaia di banner di consenso in Europa, documentando schemi ricorrenti e misurabili: se il pulsante “rifiuta” non si trova nel primo livello del banner, solo il 2,18% degli utenti lo raggiunge. Non solo: rifiutare richiede in media il doppio dei passi rispetto ad accettare.

Tra le pratiche “dark pattern” più comuni troviamo inoltre: link ingannevoli per il rifiuto (inseriti nel corpo del testo mentre per accettare è presente un pulsante ben visibile), colori e contrasti che enfatizzano l’ok e sbiadiscono il no, caselle preselezionate, falso “legittimo interesse” (con cui un’azienda dichiara di poter trattare i dati senza esplicito consenso) e percorsi per la revoca più difficili del consenso.

Il Digital Services Act (DSA), in vigore dal 2022, ha portato nel diritto dell’UE il lessico dei dark pattern e ne vieta l’uso quando interfacce e scelte di design ingannano o manipolano gli utenti, aprendo la strada a linee guida e strumenti di attuazione dedicati. In concreto, il DSA prende di mira alcune pratiche precise, come la ripetizione delle richieste anche dopo che una scelta è già stata espressa. Nella tassonomia accademico-regolatoria più aggiornata, questo comportamento corrisponde al pattern “nagging”, cioè l’interruzione insistente che spinge l’utente verso un’azione indesiderata.

Un documento rivelatore, da questo punto di vista, è An Ontology of Dark Patterns, che fornisce strumenti utili a riconoscere dark pattern, dar loro un nome preciso e idealmente a poterli misurare, così da effettuare reclami dove possibile e magari riuscire, a colpi di sanzioni, a limitarli.

Nonostante il DSA sancisca a livello concettuale il divieto dei dark pattern, le autorità o i cittadini che volessero effettuare reclami dovrebbero poter misurare la difficoltà dell’interfaccia e rendere obiettivo il giudizio. Questa è la parte più difficile: da un lato non puoi distinguere un dark pattern dal cattivo design; dall’altro, le piattaforme più grandi (definite dalla UE “gatekeeper”) sono diventate tali anche per la cura maniacale nei confronti del design delle loro interfacce, ottimizzando il percorso per loro più profittevole e disincentivando tutti gli altri.

Qui sta la difficoltà: non si può giudicare un dark pattern solo dal principio, bisogna invece misurare l’esperienza. In pratica, i pattern si vedono quando: rifiutare richiede più passaggi di accettare (asimmetria di percorso); il “no” è meno evidente del “sì” (asimmetria visiva: posizione, dimensione, contrasto); l’utente viene interrotto finché non cede (nagging); ci sono oneri informativi inutili prima di arrivare alla scelta (ostruzione); esistono impostazioni preselezionate o categorie opache (sneaking).

Per questo le standardizzazioni di piattaforma come ATT sono preziose: trasformano il consenso in un gesto coerente nel tempo, riducendo la superficie di manipolazione creativa e permettendo sia agli utenti di imparare rapidamente dove e come decidere, sia ai regolatori/ricercatori di misurare con metriche stabili (passaggi, tempi, posizionamenti). È lo stesso vantaggio che abbiamo quando il sistema operativo gestisce i permessi di fotocamera o microfono: l’utente riconosce il messaggio proveniente dal sistema operativo, sa come revocare il consenso e chi prova a barare salta subito all’occhio.

Infine, il nodo culturale: consenso informato e scelta informata richiedono una certa educazione dell’utente. Il regolatore spesso la dà per scontata mentre, al contrario, i team tecnici delle piattaforme investono nel scovare le vulnerabilità degli utenti, sfruttando posizionamento, ritardi, colori, tempi, percorsi. Per questo l’uniformità del punto in cui bisogna effettuare la decisione (uno strato di sistema, uguale per tutti) dovrebbe essere favorita: abbassa la complessità per gli utenti e rende l’enforcement verificabile.

Oggi, però, la regolazione resta quasi sempre a livello alto (principi, divieti) e raramente scende a specifiche vincolanti sulla user interface. Il risultato è che l’onere di provare la manipolazione ricade su autorità e cittadini, caso per caso; mentre chi progetta interfacce approfitta della grande varietà di soluzioni “creative”. ATT mostra che spostare la scelta verso il basso, all’interno del sistema, abilita gli utenti a esprimere le loro volontà e a vederle rispettate.

Il limitato intervento del Garante

Immaginiamo che l’Autorità Garante della Concorrenza e del Mercato (AGCM) ponga all’autorità che si occupa di protezione dei dati una domanda di questo tipo: “ATT è necessario per adempire al GDPR?”. Quest’ultimo probabilmente risponderebbe negativamente, perché in punta di diritto non lo è. Forse è un peccato, perché se la domanda invece fosse: “ATT è una soluzione migliore per catturare il consenso rispetto ai banner sviluppati da terze parti?”, la risposta sarebbe molto probabilmente differente. Al di là degli scenari teorici, che mostrano però come basti cambiare il punto di vista per cambiare anche il risultato, l’impressione è che AGCM abbia la possibilità di rimuovere ATT e che il garante della Privacy non abbia strumenti per intervenire.

La situazione non sembra quindi rosea per ATT in attesa della decisione del 16 dicembre, visto che in Francia l’Autorità competente ha già inflitto a Apple 150 milioni di euro, ritenendo sproporzionato il sistema rispetto all’obiettivo dichiarato e penalizzante per editori più piccoli (Apple ha invece nuovamente difeso ATT come una scelta a favore degli utenti).

Ed è qui che la notizia si intreccia con i dark pattern: per alleggerire le restrizioni di ATT, l’industria pubblicitaria spinge perché siano le singole app e non il sistema a mostrare i propri moduli di consenso. Ma quando scompare il “freno di piattaforma”, gli stessi moduli spesso deviano la scelta.

Antitrust contro privacy

EPIC (Electronic Privacy Information Center) ha messo in guardia proprio su questo punto: con la scusa della concorrenza si rischiano di abbassare le barriere al tracciamento, limitando le tutele. Le minacce per la sicurezza relative alle periferiche e di cui abbiamo parlato, per esempio, non sono sempre state bloccate. Le tutele sono cresciute gradualmente. Da questo punto di vista, il caso di Apple fa riflettere su due aspetti.

Il primo è che se i diritti non sono riconosciuti a norma di legge, non sono realmente ottenuti. Per esempio: una VPN potrà darci un vantaggio, un sistema operativo potrà darci una funzione come l’ATT, una corporation come WhatsApp potrà avvisarci di essere soggetti ad attacchi da parte di attori statali, ma questi sono da viversi come “regali temporanei”. Ci vengono fatti perché la percezione di sicurezza degli utenti conta di più della loro effettiva inattaccabilità.

Chissà cosa succederebbe se l’antitrust sancisse che gli sviluppatori di terze parti possono avere la libertà di accedere anche alle periferiche del sistema, senza subire i vincoli del sistema operativo. Sarebbe naturalmente un disastro, ma quantomeno solleverebbe pressioni, perplessità, critiche. Invece, relegare questa scelta a una lotta tra corporation rischia di non rendere giustizia alle vittime di tutto questo: gli utenti.

Grande assente nelle carte è infatti una domanda: che cosa vogliono le persone? Come detto, al netto delle dispute tra piattaforme e ad-tech, ATT piace agli utenti iOS e una larga maggioranza di utenti Android ha detto di volere “qualcosa di simile” sui propri telefoni. Un maxi-sondaggio svolto da Android Authority con oltre 35 mila voti (per quanto privo di valore statistico) ha concluso che “la stragrande maggioranza vuole anche su Android una funzione anti-tracking come quella di Apple”. Ma questo in fondo già lo sapevamo, ognuno di noi,  quando messo davvero di fronte a una scelta chiara, tende a dire di no al tracciamento. Usare l’antitrust per rimuovere ATT non darebbe più libertà agli sviluppatori, ma solo più libertà d’azione ai dark pattern.

L'articolo Apple, i dark pattern e la difficile battaglia contro il tracciamento proviene da Guerre di Rete.

Enshittification: il progressivo degrado delle piattaforme digitali

12 Novembre 2025 ore 11:00

Immagine in evidenza: rielaborazione della copertina di Enshittification di Cory Doctorow

Da alcuni anni conosciamo il cosiddetto “capitalismo della sorveglianza”: un modello economico basato sull’estrazione, controllo e vendita dei dati personali raccolti sulle piattaforme tecnologiche. Lo ha teorizzato Shoshana Zuboff nel 2019 in un libro necessario per comprendere come Meta, Amazon, Google, Apple e gli altri colossi tech abbiano costruito un potere senza precedenti, capace di influenzare non solo il mercato e i comportamenti degli utenti, ma anche, tramite il lobbying, le azioni dei decisori pubblici di tutto il mondo.

L’idea che queste grandi piattaforme abbiano sviluppato una sorta di potere sulle persone tramite la sorveglianza commerciale, com’è stata teorizzata da Zuboff, è però un mito che è il momento di sfatare. Così almeno la pensa Cory Doctorow, giornalista e scrittore canadese che negli ultimi anni ha pubblicato due libri particolarmente illuminanti sul tema. 

In “Come distruggere il capitalismo della sorveglianza”, uscito nel 2024 ed edito da Mimesis, Doctorow spiega come molti critici abbiano ceduto a quella che il professore del College of Liberal Arts and Human Science Lee Vinsel ha definito “criti-hype”: l’abitudine di criticare le affermazioni degli avversari senza prima verificarne la veridicità, contribuendo così involontariamente a confermare la loro stessa narrazione. In questo caso, in soldoni, il mito da contestare è proprio quello di poter “controllare” le persone per vendergli pubblicità. 

“Penso che l’ipotesi del capitalismo della sorveglianza sia profondamente sbagliata, perché rigetta il fatto che le aziende ci controllino attraverso il monopolio, e non attraverso la mente”, spiega Doctorow a Guerre di Rete. Il giornalista fa l’esempio di uno dei più famosi CEO delle Big Tech, Mark Zuckerberg: “A maggio, Zuckerberg ha rivelato agli investitori che intende recuperare le decine di miliardi che sta spendendo nell’AI usandola per creare pubblicità in grado di aggirare le nostre capacità critiche, e quindi convincere chiunque ad acquistare qualsiasi cosa. Una sorta di controllo mentale basato sull’AI e affittato agli inserzionisti”. 

Effettivamente, viste le perdite che caratterizzano il settore dell’intelligenza artificiale – e nel caso di Meta visto anche il fallimento di quel progetto chiamato metaverso, ormai così lontano da non essere più ricordato da nessuno – è notevole che Zuckerberg sia ancora in grado di ispirare fiducia negli investitori. E di vendergli l’idea di essere un mago che, con cappello in testa e bacchetta magica in mano, è in grado di ipnotizzarci tutti. “Né Rasputin [il mistico russo, cui erano attribuito poteri persuasivi, ndr] né il progetto MK-Ultra [un progetto della CIA per manipolare gli stati mentali negli interrogatori, ndr] hanno mai veramente perfezionato il potere mentale, erano dei bugiardi che mentivano a sé stessi o agli altri. O entrambe le cose”, dice Doctorow. “D’altronde, ogni venditore di tecnologia pubblicitaria che incontri un dirigente pubblicitario sfonda una porta aperta: gli inserzionisti vogliono disperatamente credere che tu possa controllare la mente delle persone”. 

Il caro vecchio monopolio

Alla radice delle azioni predatorie delle grandi piattaforme, però, non ci sarebbe il controllo mentale, bensì le pratiche monopolistiche, combinate con la riduzione della qualità dei servizi per i miliardi di utenti che li usano. Quest’ultimo è il concetto di enshittification, coniato dallo stesso Doctorow e che dà il nome al suo saggio appena uscito negli Stati Uniti. Un processo che vede le piattaforme digitali, che inizialmente offrono un servizio di ottimo livello, peggiorare gradualmente per diventare, alla fine, una schifezza (la traduzione di shit è escremento, per usare un eufemismo).

“All’inizio la piattaforma è vantaggiosa per i suoi utenti finali, ma allo stesso tempo trova il modo di vincolarli”, spiega il giornalista facendo l’esempio di Google, anche se il processo di cui parla si riferisce a quasi tutte le grandi piattaforme. Il motore di ricerca ha inizialmente ridotto al minimo la pubblicità e investito in ingegneria per offrire risultati di altissima qualità. Poi ha iniziato a “comprarsi la strada verso il predominio” –sostiene Doctorow – grazie ad accordi che hanno imposto la sua casella di ricerca in ogni servizio o prodotto possibile. “In questo modo, a prescindere dal browser, dal sistema operativo o dall’operatore telefonico utilizzato, le persone finivano per avere sempre Google come impostazione predefinita”.

Una strategia con cui, secondo Doctorow, l’azienda di Mountain View ha acquisito qua e là società di grandi dimensioni per assicurarsi che nessuno avesse un motore di ricerca che non fosse il suo. Per Doctorow è la fase uno: offrire vantaggi agli utenti, ma legandoli in modo quasi invisibile al proprio ecosistema.

Un’idea di quale sia il passaggio successivo l’abbiamo avuta assistendo proprio a ciò che è successo, non troppo tempo fa, al motore di ricerca stesso: “Le cose peggiorano perché la piattaforma comincia a sfruttare gli utenti finali per attrarre e arricchire i clienti aziendali, che per Google sono inserzionisti ed editori web. Una porzione sempre maggiore di una pagina dei risultati del motore di ricerca è dedicata agli annunci, contrassegnati con etichette sempre più sottili, piccole e grigie. Così Google utilizza i suo i dati di sorveglianza commerciale per indirizzare gli annunci”, spiega Doctorow. 

Nel momento in cui anche i clienti aziendali rimangono intrappolati nella piattaforma, come prima lo erano stati gli utenti, la loro dipendenza da Google è talmente elevata che abbandonarla diventa un rischio esistenziale. “Si parla molto del potere monopolistico di Google, che deriva dalla sua posizione dominante come venditore. Penso però che sia più correttamente un monopsonio”.

Monopoli e monopsoni

“In senso stretto e tecnico, un monopolio è un mercato con un unico venditore e un monopsonio è un mercato con un unico acquirente”, spiega nel suo libro Doctorow. “Ma nel linguaggio colloquiale dell’economia e dell’antitrust, monopolista e monopsonista si riferiscono ad aziende con potere di mercato, principalmente il potere di fissare i prezzi. Formalmente, i monopolisti di oggi sono in realtà oligopolisti e i nostri monopsonisti sono oligopsonisti (cioè membri di un cartello che condividono il potere di mercato)”.

E ancora scrive: “Le piattaforme aspirano sia al monopolio che al monopsonio. Dopo tutto, le piattaforme sono ”mercati bilaterali” che fungono da intermediari tra acquirenti e venditori. Inoltre, la teoria antitrust basata sul benessere dei consumatori è molto più tollerante nei confronti dei comportamenti monopsonistici, in cui i costi vengono ridotti sfruttando lavoratori e fornitori, rispetto ai comportamenti monopolistici, in cui i prezzi vengono aumentati. In linea di massima, quando le aziende utilizzano il loro potere di mercato per abbassare i prezzi, possono farlo senza temere ritorsioni normative. Pertanto, le piattaforme preferiscono spremere i propri clienti commerciali e aumentano i prezzi solo quando sono diventate davvero troppo grandi per essere perseguite”.

Così facendo, l’evoluzione del motore di ricerca si è bloccata e il servizio ha poi iniziato a peggiorare, sostiene l’autore. “A un certo punto, nel 2019, più del 90% delle persone usava Google per cercare tutto. Nessun utente poteva più diventare un nuovo utente dell’azienda e quindi non avevano più un modo facile per crescere. Di conseguenza hanno ridotto la precisione delle risposte, costringendo gli utenti a cercare due o più volte prima di ottenerne una decente, raddoppiando il numero di query e di annunci”.

A rendere nota questa decisione aziendale è stata, lo scorso anno, la pubblicazione di alcuni documenti interni durante un processo in cui Google era imputata. Sui banchi di un tribunale della Virginia una giudice ha stabilito che l’azienda creata da Larry Page e Sergey Brin ha abusato di alcune parti della sua tecnologia pubblicitaria per dominare il mercato degli annunci, una delle sue principali fonti di guadagno (nel 2024, più di 30 miliardi di dollari a livello mondiale).

“E così arriviamo al Google incasinato di oggi, dove ogni query restituisce un cumulo di spazzatura di intelligenza artificiale, cinque risultati a pagamento taggati con la parola ‘ad’ (pubblicità) in un carattere minuscolo e grigio su sfondo bianco. Che a loro volta sono link di spam che rimandano ad altra spazzatura SEO”, aggiunge Doctorow facendo riferimento a quei contenuti creati a misura di motore di ricerca e privi in realtà di qualunque valore informativo. Eppure, nonostante tutte queste criticità, continuiamo a usare un motore di ricerca del genere perché siamo intrappolati nei suoi meccanismi.

Il quadro non è dei migliori. “Una montagna di shit”, le cui radici  – afferma lo studioso – vanno cercate nella distruzione di quei meccanismi di disciplina che una volta esistevano nel capitalismo. Ma quali sarebbero questi lacci che tenevano a bada le grandi aziende? La concorrenza di mercato – ormai eliminata dalle politiche che negli ultimi 40 anni hanno favorito i monopoli; una regolamentazione efficace – mentre oggi ci ritroviamo con leggi e norme inadeguate o dannose, come ad esempio la restrizione dei meccanismi di interoperabilità indotta dall’introduzione di leggi sul copyright; e infine il potere dei lavoratori – anche questo in caduta libera a seguito dell’ondata di licenziamenti nel settore tecnologico.

La “enshittification“, secondo Doctorow, è un destino che dovevamo veder arrivare, soprattutto perché giunge a valle di scelte politiche precise: “Non sono le scelte di consumo, ma quelle politiche a creare mostri come i CEO delle Big Tech, in grado di distruggere le nostre vite online perché portatori di pratiche commerciali predatorie, ingannevoli, sleali”.

Non basta insomma odiare i giocatori e il gioco, bisogna anche ricordare che degli arbitri disonesti hanno truccato la partita, convincendo i governi di tutto il mondo ad abbracciare specifiche politiche.
Quando si parla di tecnologia e delle sue implicazioni a breve, medio e lungo periodo è difficile abbracciare una visione possibilista e positiva. Un po’ come succede per le lotte per la giustizia sociale e per il clima: il muro che ci si ritrova davanti sembra invalicabile. Una grossa difficoltà che, secondo Doctorow, è data dalla presenza di monopoli e monopsoni. 

Ma la reazione alle attuali crisi politiche globali mostra che un cambiamento è possibile. “Negli ultimi anni c’è stata un’azione di regolamentazione della tecnologia superiore a quella dei 40 anni precedenti”, spiega Doctorow. Non solo: la seconda elezione di Donald Trump si starebbe rivelando una benedizione sotto mentite spoglie, sia per il clima sia per il digitale. “Ha acceso un fuoco sotto i leader di altri Paesi ex alleati, stimolando grandi e ambiziosi programmi per sfuggire al monopolio statunitense. Pensiamo ai dazi sui pannelli solari cinesi imposti da Trump nella prima amministrazione, per esempio. Una misura che ha spinto i produttori di Pechino a inondare i paesi del Sud del mondo con i loro pannelli economici, a tal punto che intere regioni si sono convertite all’energia solare”, afferma Doctorow, che considera questa strada percorribile anche per ottenere una tecnologia più libera.

Per non vedere tutto nero

Sfuggire alle Big Tech americane non dovrebbe significare semplicemente  rifugiarsi in un servizio alternativo (mail, cloud, social media, ecc.), anche perché il processo non è così semplice. “Non si copia e incolla la vita delle persone: le email, i file, i documenti custoditi nei cloud di Microsoft, Apple o Google. Nessun ministero, azienda o individuo lo farà”. Motivo per cui, secondo Doctorow, Eurostack è una possibile alternativa, ma che ha ancora tanta strada da fare.

Eurostack è un’iniziativa europea nata recentemente in risposta all’esigenza di costruire una sovranità digitale del Vecchio continente, indipendente dalle aziende tecnologiche straniere (specialmente USA). Coinvolge attivisti digitali, comunità open source, istituzioni europee e alcuni politici. “L’Ue potrebbe ordinare alle grandi aziende tech statunitensi di creare strumenti di esportazione, così che gli europei possano trasferire facilmente i propri dati in Eurostack, ma possiamo già immaginare come andrà a finire. Quando l’Ue ha approvato il Digital Markets Act, Apple ha minacciato di smettere di vendere iPhone in Europa, e ha presentato 18 ricorsi legali”, ricorda Doctorow. 

Se la risposta di un’azienda statunitense all’introduzione di una direttiva europea è questa, la soluzione allora non può essere che radicale. “L’unica via possibile è abrogare l’articolo 6 della direttiva sul diritto d’autore: l’Ue dovrebbe rendere legale il reverse engineering di siti web e app statunitensi in modo che gli europei possano estrarre i propri dati e trasferirli in Eurostack. Un modello aperto, sovrano, rispettoso della privacy, dei diritti dei lavoratori e dei consumatori”.

L'articolo Enshittification: il progressivo degrado delle piattaforme digitali proviene da Guerre di Rete.

Rosette hi-tech, AI e server nazionali: chi lavora per preservare lingue in via d’estinzione

15 Ottobre 2025 ore 11:00

Immagine in evidenza da Wikimedia

“ll dialetto di Milano? Direi che è un misto di italiano e inglese”. La battuta sintetizza bene l’onnipresenza del caricaturale vernacolo meneghino, versione anni Duemila. Alberto lavora nel dipartimento comunicazione di una società fintech. Trasferito dal sud Italia in Lombardia, diverse esperienze all’estero alle spalle, racconta a cena che in tre anni non gli è mai capitato di sentire una conversazione in milanese. Non ne conosce vocaboli e cadenza se non nelle imitazioni di qualche comico. 

In Meridione il dialetto è parlato comunemente accanto all’italiano: persino gli immigrati lo imparano facilmente, per necessità. Nel capoluogo lombardo la realtà è diversa. Ascoltare la lingua di Carlo Porta è raro: probabilmente la perdita è stata favorita dall’arrivo di abitanti provenienti da ogni parte d’Italia, dalla vocazione commerciale della città e dal fatto che parlare solo italiano era sintomo di avvenuta scalata sociale. 

Non è una domanda peregrina, dunque, chiedersi quanto a lungo resisterà senza parlanti. Diventerà una lingua morta, da filologi, un po’ come il latino?

7mila lingue, quasi la metà a rischio

Le premesse sembrano esserci. Questo esempio così vicino al nostro vissuto quotidiano è però la spia di una questione più ampia. Il problema non riguarda solo i dialetti. In totale sono infatti oltre settemila, stima lo Undp (il programma delle Nazioni unite per lo sviluppo), le lingue parlate nel globo, alcune da poche centinaia di individui. Il 44% sarebbe in pericolo di estinzione

Con la globalizzazione, il problema di preservare la biodiversità linguistica – portatrice non solo di cultura, ma di un modo di vedere il mondo –  ha cominciato a porsi con maggiore insistenza. Non mancano iniziative di tutela locali, come corsi serali per appassionati e nostalgici, ma con tutta probabilità si tratta di palliativi. 

Un supporto fino a poco tempo fa impensabile può arrivare, però, per linguisti e antropologi dalla tecnologia. Probabilmente non è la panacea di tutti i mali. Ma, come vedremo, può aiutare. 

Il Rosetta project

Tra i primi programmi digitali al mondo per la tutela delle lingue in via di estinzione c’è il Rosetta project, che da oltre due decenni raccoglie specialisti e parlanti nativi allo scopo di costruire un database pubblico e liberamente accessibile di tutte le lingue umane. Il Rosetta project fa capo a un ente molto particolare: la Long Now foundation (Lnf, tra i membri fondatori c’è il musicista Brian Eno). La Lnf parte da un presupposto: è necessario pensare seriamente al futuro remoto, per non farsi trovare impreparati dallo scorrere del tempo. 

Il ragionamento è tutt’altro che banale. “Si  prevede che dal cinquanta al novanta per cento delle lingue parlate spariranno nel prossimo secolo”, spiegano gli organizzatori sul sito, “molte con poca o nessuna documentazione”. Come preservarle? 

Lo sguardo torna all’Antico Egitto: così è nato il Rosetta Disk, un disco di nichel del diametro di tre pollici su cui sono incise microscopicamente quattordicimila pagine che traducono lo stesso testo in oltre mille lingue. Il modello è la stele di Rosetta, che due secoli fa consentì di interpretare i geroglifici, di cui si era persa la conoscenza. Una lezione che gli studiosi non hanno dimenticato. 

Il principio è più o meno lo stesso delle vecchie microfiches universitarie: per visualizzare il contenuto basta una lente di ingrandimento. Non si tratta, insomma, di una sequenza di 0 e 1, quindi non è necessario un programma di decodifica. Il rischio –  in Silicon Valley lo sanno bene –  sarebbe che il software vada perso nel giro di qualche decennio per via di un cambiamento tecnologico; o (e sarebbe anche peggio) che qualche società privata che ne detiene i diritti decida di mettere tutto sotto chiave, come peraltro avviene per molte applicazioni con la politica del cosiddetto “vendor lock in” (Guerre di Rete ne ha parlato in questo pezzo). Qui, invece, la faccenda è semplice: basta ingrandire la superficie di cinquecento volte con una lente e il gioco è fatto.  

Il prezioso supporto è acquistabile per qualche centinaio di dollari, ed è stato spedito anche nello spazio con la sonda spaziale Rosetta dell’Agenzia spaziale europea (nonostante l’omonimia, non si tratta dello stesso progetto). Il disco è collocato in una sfera dove resta a contatto con l’aria, ma che serve a proteggerlo da graffi e abrasioni. Con una manutenzione minima, recitano le note di spiegazione, “può facilmente durare ed essere letto per centinaia di anni”. Resiste, ovviamente, anche alla smagnetizzazione (sarebbe basato su test condotti al Los Alamos National Laboratory, lo stesso del progetto Manhattan di Oppenheimer dove fu concepita la bomba atomica). 

Una scelta difficile 

Porsi in una prospettiva di lungo periodo pone interessanti domande. Che tipo di informazioni conservare per un futuro nell’ipotesi – speriamo remota – che tutto il nostro sapere, sempre più digitalizzato, vada perso? Meglio preservare la letteratura, le tecniche ingegneristiche, o le cure per le malattie? Un criterio è evidentemente necessario. 

La scelta della Long now foundation è stata quella di lasciare ai posteri una chiave di interpretazione utile a tradurre tutto ciò che è destinato a sopravvivere. Ma il progetto comprende anche una sezione digitale, cresciuta nel corso degli anni fino a raggiungere oltre centomila pagine di documenti testuali e registrazioni in oltre 2.500 lingue. I contenuti, si legge sul sito, sono disponibili a chiunque per il download e il riutilizzo secondo i principi dell’open access; anche il pubblico può contribuire alla raccolta inviando materiale di vario tipo. Fondamentale per raccapezzarsi è il ruolo dei metadati (data, luogo, formato e altri elementi dei dati in questione) – ci torneremo più avanti.

Il progetto francese Pangloss

Anche in Europa ci sono progetti di tutela del patrimonio linguistico in piena attività. Per esempio in Francia – non dimentichiamo che la stele di Rosetta (conservata al British Musem di Londra) fu rinvenuta  nell’ambito delle spedizioni napoleoniche – esiste il progetto Pangloss, che si propone di realizzare un archivio aperto di tutte le lingue in pericolo o poco parlate e contiene documenti sonori di idiomi rari o poco studiati, raccolti grazie al lavoro di linguisti professionisti su una piattaforma moderna e funzionale battezzata Cocoon. 

Attualmente la collezione comprende un corpus di 258 tra lingue e dialetti di 46 paesi, per un totale di più di 1200 ore d’ascolto. I documenti presentati contengono per lo più discorsi spontanei, registrati sul campo. Circa la metà sono trascritti e annotati.

C’è anche un po’ di Italia: il dialetto slavo molisano (parlato nei tre villaggi di San Felice del Molise, Acquaviva Collecroce e Montemitro, in provincia di Campobasso, a 35 chilometri dal mare Adriatico) e il Valoc, un dialetto valtellinese lombardo.

Pangloss è open, sia in modalità “base” sia in quella “pro”. La politica è di apertura totale: per consultare il sito web non è necessario accettare specifiche condizioni d’uso né identificarsi. Non si utilizzano cookie di profilazione, come orgogliosamente dichiarato

“Il progetto Pangloss è nato negli anni ‘90 e da allora si è evoluto considerevolmente”, dice a Guerre di Rete Severine Guillaume, che ne è la responsabile. “Si tratta di una collezione orale, il che significa che raccogliamo contenuti video e audio che possono anche essere accompagnati da annotazioni: trascrizioni, traduzioni, glosse. Ogni risorsa depositata dev’essere fornita di metadati: titolo, lingua studiata, nome di chi la carica, persone che hanno contribuito alla creazione, data della registrazione, descrizione del contenuto”. 

Come analizzare i dati: l’impiego dell’AI

L’intelligenza artificiale ha cominciato a farsi strada anche tra questi archivi digitali. “Abbiamo condotto degli esperimenti sui nostri dati con l’obiettivo di aiutare i ricercatori ad arricchirli”, conferma Guillaume. “Sono stati diversi i test di  trascrizione automatica, e due di loro l’hanno già impiegata: per ogni minuto di audio si possono risparmiare fino a quaranta minuti di lavoro, lasciando agli studiosi il tempo di dedicarsi a compiti più importanti. Al momento, insomma, direi che stiamo sperimentando”. 

Non è detto che funzioni in ogni situazione, ma “la risposta iniziale è affermativa quando la trascrizione riguarda un solo parlante”, prosegue Guillaume. Il problema sta “nella cosiddetta diarization, che consiste nel riconoscere chi sta parlando in un dato momento, separare le voci, e attribuire ogni segmento audio al partecipante corretto”.

Le prospettive, tutto sommato, sembrano incoraggianti. “Abbiamo cominciato a cercare somiglianze tra due idiomi o famiglie linguistiche: ciò potrebbe rivelare correlazioni che ci sono sfuggite”, afferma la dirigente. Siamo, per capirci, nella direzione della grammatica universale teorizzata da Noam Chomsky, e immaginata da Voltaire nel suo Candido (il dottor Pangloss, ispirandosi a Leibniz, si poneva lo scopo di scovare gli elementi comuni a tutte le lingue del mondo). 

Come conservare i dati: il ruolo delle infrastrutture pubbliche

Il problema di preservare il corpus di conoscenze è stato affrontato? “Sì”, risponde Guillaume. “La piattaforma Cocoon, su cui è basata la collezione Pangloss, impiega l’infrastruttura nazionale francese per assicurare la longevità dei dati. Per esempio, tutte le informazioni sono conservate sui server dell’infrastruttura di ricerca Huma-Num, dedicata ad arti, studi umanistici e scienze sociali, finanziata e implementata dal ministero dell’Istruzione superiore e della Ricerca. Vengono poi mandate al Cines, il centro informatico nazionale per l’insegnamento superiore, che ne assicura l’archiviazione per almeno quindici anni. Infine, i dati sono trasferiti agli archivi nazionali francesi. Insomma, di norma tutto è pensato per durare per l’eternità”. 

Altro progetto dalla connotazione fortemente digitale è Ethnologue. Nato in seno alla SIL (Summer Institute of Linguistics, una ong di ispirazione cristiano-evangelica con sede a Dallas) copre circa settemila lingue, offrendo anche informazioni sul numero di parlanti, mappe, storia, demografia e altri fattori sociolinguistici. Il progetto, nato nel 1951, coinvolge quattromila persone, e nasce dall’idea di diffondere le Scritture. Negli anni si è strutturato in maniera importante: la piattaforma è ricca di strumenti, e molti contenuti sono liberamente fruibili. Sebbene la classificazione fornita dal sito (per esempio la distinzione tra lingua e dialetto) sia stata messa in discussione, resta un punto di riferimento importante. 

I progetti italiani 

Non manca qualche spunto italiano. Come, per esempio, Alpilink. Si tratta di un progetto collaborativo per la documentazione, analisi e promozione dei dialetti e delle lingue minoritarie germaniche, romanze e slave dell’arco alpino nazionale. Dietro le quinte ci sono le università di Verona, Trento, Bolzano, Torino e Valle d’Aosta. A maggio 2025 erano stati raccolti 47.699 file audio, che si aggiungono ad altri 65.415 file collezionati nel precedente progetto Vinko. Le frasi pronunciate dai parlanti locali con varie inflessioni possono essere trovate e ascoltate grazie a una mappa interattiva, ma esiste anche un corpus per specialisti che propone gli stessi documenti  con funzioni di ricerca avanzate. Il crowdsourcing (cioè la raccolta di contenuti) si è conclusa solo qualche mese fa, a fine giugno. La difficoltà per gli anziani di utilizzare la tecnologia digitale è stata aggirata coinvolgendo gli studenti del triennio delle superiori. 

Altro progetto interessante è Devulgare. In questo caso mancano gli strumenti più potenti che sono propri dell’università; ma l’idea di due studenti, Niccolò e Guglielmo, è riuscita ugualmente a concretizzarsi in un’associazione di promozione sociale e in un’audioteca che raccoglie campioni vocali dal Trentino alla Calabria. Anche in questo caso, chiunque può partecipare inviando le proprie registrazioni. Dietro le quinte, c’è una squadra di giovani volontari – con cui peraltro è possibile collaborare – interessati alla conservazione del patrimonio linguistico nazionale. Un progetto nato dal basso ma molto interessante, soprattutto perché dimostra la capacità di sfruttare strumenti informatici a disposizione di tutti in modo creativo: Devulgare si basa, infatti, sulla piattaforma Wix, simile a WordPress e che consente di creare siti senza la necessità di essere maestri del codice. Una vivace pagina Instagram con 10.300 follower – non pochi, trattandosi di linguistica –  contribuisce alla disseminazione dei contenuti. 

Ricostruire la voce con la AI 

Raccogliere campioni audio ha anche un’altra utilità: sulla base delle informazioni raccolte e digitalizzate oggi, sarà possibile domani, grazie all’intelligenza artificiale, ascoltare le lingue scomparse. L’idea viene da una ricerca applicata alla medicina, che attraverso un campione di soli otto secondi, registrato su un vecchio VHS, ha permesso di ricostruire con l’AI la voce di una persona che l’aveva persa. 

È accaduto in Inghilterra, e recuperare il materiale non è stato una passeggiata: le uniche prove della voce di una donna affetta da Sla risalivano agli anni Novanta ed erano conservate su una vecchia videocassetta. Nascere molti anni prima dell’avvento degli smartphone ovviamente non ha aiutato. A centrare l’obiettivo sono stati i ricercatori dell’università di Sheffield. Oggi la donna può parlare, ovviamente con delle limitazioni: deve fare ricorso a un puntatore oculare per comporre parole e frasi. Ma la voce sintetizzata è molto simile a quella che aveva una volta. E questo apre prospettive insperate per i filologi. 

Come spesso accade, il marketing ha naso per le innovazioni dotate di potenziale. E così, oggi c’è chi pensa di sfruttare l’inflessione dialettale per conquistare la fiducia dei consumatori. È quello che pensano i due ricercatori Andre Martin (Università di Notre Dame, Usa) e Khalia Jenkins (American University, Washington), che nella presentazione del loro studio citano addirittura Nelson Mandela: “Se parli a un uomo in una lingua che capisce, raggiungerai la sua testa. Ma se gli parli nella sua lingua, raggiungerai il suo cuore”. 

“I sondaggi dell’industria hanno fotografato il sentiment sempre più negativo verso l’AI”, scrivono gli studiosi, che lavorano in due business school. “Immergendosi a fondo nel potenziale dei dialetti personalizzati, creati con l’AI al fine di aumentare la percezione di calore, competenza e autenticità da parte dell’utente, l’articolo sottolinea [come in questo modo si possa] rafforzare la fiducia, la soddisfazione e la lealtà nei confronti dei sistemi di intelligenza artificiale”. Insomma, addestrando gli agenti virtuali a parlare con una cadenza amica si può vendere di più. C’è sempre un risvolto business, e qui siamo decisamente lontani dagli intenti di conservazione della biodiversità linguistica. Ma anche questo fa parte del gioco.

L'articolo Rosette hi-tech, AI e server nazionali: chi lavora per preservare lingue in via d’estinzione proviene da Guerre di Rete.

❌