Modalità di lettura

Comunicazione quantistica: la nuova frontiera della sicurezza digitale europea

Immagine in evidenza da European Space Agency

Quando si parla del rapporto tra quantum computing e sicurezza informatica il pensiero è spesso rivolto al tema della crittografia: in futuro un tecnico potrebbe accendere un computer quantistico all’interno di un data center e in pochi minuti decifrare comunicazioni intercettate e archiviate dieci anni prima, protette dagli algoritmi crittografici moderni (harvest now, decrypt later).

Documenti governativi, transazioni bancarie, segreti industriali improvvisamente esposti. Non è fantascienza, ma il potenziale scenario che ha spinto Stati, infrastrutture critiche e organizzazioni di tutto il mondo alla transizione verso nuovi algoritmi di cifratura, resistenti agli attacchi quantistici.

Un altro tema cruciale della crittografia del futuro è però quello dello scambio sicuro delle chiavi crittografiche, per impedire che possano essere intercettate o manipolate: un problema che ha portato Europa, Stati Uniti, Cina e Russia a investire massicciamente in un’altra tecnologia: la comunicazione quantistica.

L’Agenzia spaziale europea (ESA) ha affidato a un consorzio guidato da Thales Alenia Space un contratto da 50 milioni di euro per la fase di definizione della missione SAGA. L’obiettivo è progettare un satellite capace di generare e distribuire chiavi crittografiche quantistiche per usi governativi e per collegare il futuro network EuroQCI, la dorsale europea per la comunicazione quantistica sicura.

Fabio Sciarrino, professore di fisica quantistica alla Sapienza di Roma, ha spiegato che con SAGA l’Europa avrà un segmento spaziale sovrano per la sicurezza delle comunicazioni: “Non si tratta solo di tecnologia: è una questione di autonomia strategica”.

Computer quantistici e crittografia moderna: “harvest now, decrypt later”

Rubare oggi, decifrare domani. Agenzie di intelligence e attori statali stanno raccogliendo enormi quantità di dati cifrati, sapendo che, tra dieci o quindici anni, i computer quantistici saranno abbastanza potenti da leggerli. “I dati raccolti oggi possono essere messi da parte e letti quando i computer quantistici diventeranno abbastanza potenti”, ha spiegato Giuseppe Vallone, docente all’Università di Padova. “Per settori come sanità, energia e finanza, è un rischio reale”.

Nel 2019, Google dichiarò di aver raggiunto la “quantum supremacy”. Nel 2023, IBM superò i 1.000 qubit (l’equivalente dei bit nei computer quantistici) con il chip Condor. Il 9 dicembre 2024, Google ha presentato Willow, un processore da 105 qubit che ha completato in meno di cinque minuti un test sperimentale, progettato appositamente, che per i computer classici avrebbe richiesto un lasso di tempo praticamente infinito. Dal canto suo, IBM ha invece annunciato nel novembre 2025 il chip Quantum Nighthawk con 120 qubit, e punta a Starling per il 2029: un computer quantistico funzionante non più solo su progetti teorici e sperimentali, che sarà costruito nel data center di Poughkeepsie, New York.

La timeline della minaccia, dunque, si sta accorciando. I computer quantistici capaci di violare gli algoritmi RSA-2048 potrebbero infatti essere operativi tra il 2030 e il 2035. Per questo il National Institute of Standards and Technology (NIST) statunitense ha pubblicato nel 2024 i primi algoritmi di crittografia post-quantistica, resistenti agli attacchi. Ma proteggono solo i dati futuri, non quelli già rubati.

Le origini della comunicazione quantistica: dalla teoria alla realtà

La comunicazione quantistica affonda le radici nel 1984, quando Charles Bennett e Gilles Brassard presentarono il protocollo BB84. Era teoria pura: un sistema in cui a garantire la sicurezza non sarebbero state le leggi della matematica, ma della fisica quantistica. Per decenni il protocollo rimase però confinato nei laboratori.

Il punto di svolta arrivò nell’agosto 2016, quando la Cina lanciò Micius, il primo satellite al mondo dedicato alla comunicazione quantistica. Micius stabilì collegamenti quantistici sicuri tra Pechino e Vienna, superando i 7.600 chilometri di distanza. Fu il momento Sputnik del XXI secolo: Washington si accorse di essere in ritardo. Come ha recentemente ammesso un funzionario del Pentagono, “per anni abbiamo sottovalutato gli investimenti cinesi nel quantum. Credevamo fossero solo propaganda”.

Da Vienna a Tokyo, da Pechino a Ginevra, le prime “reti metropolitane” quantistiche cominciarono a operare. Ma il vero impulso venne dalla consapevolezza che i computer quantistici avrebbero un domani potuto frantumare la crittografia classica. E, con essa, mezzo secolo di segreti digitali.

Come funziona: la fisica al posto della matematica

La comunicazione quantistica non è una semplice evoluzione della crittografia: è un cambio di paradigma. La sua sicurezza non dipende dalla complessità computazionale di problemi matematici, ma dall’impossibilità fisica di intercettare un segnale senza alterarlo. Le informazioni sono codificate nello stato fisico dei fotoni, particelle di luce, e ogni tentativo di intercettazione altera inevitabilmente lo stato quantistico del segnale, rendendo rilevabile un’intrusione. “È come lasciare impronte digitali in ogni bit”, ha spiegato Stefano Pirandola, fisico teorico dell’Università di York. “Se qualcuno prova a leggere la chiave, il sistema lo segnala subito”.

C’è però un limite: i fotoni viaggiano bene in fibra ottica, ma oltre i 100-150 chilometri il segnale si degrada. Per questo servono i satelliti. In orbita, i fotoni viaggiano nel vuoto con perdite minime, permettendo collegamenti intercontinentali. È qui che SAGA, Micius e i progetti statunitensi entrano in gioco.

Del resto, il gruppo del fisico cinese Jian-Wei Pan parla apertamente da tempo di applicazioni su larga scala e di nuovi satelliti ad alta orbita: “Questi ultimi possono collegare due punti sulla Terra distanti 10mila chilometri”, evidenziando le potenzialità di connessioni globali sicure.

 

Scenari futuri: mappa del quantum

Presente (2026)

Test operativi di QKD su dorsali in fibra ottica, Qolossus 2.0 operativo alla Sapienza, EuroQCI in costruzione, rete nazionale cinese di 12.000 km pienamente operativa, collegamenti quantistici intercontinentali via satellite.

Orizzonte 2027-2030

SAGA operativo tra 2027 e 2029, integrazione completa tra segmento spaziale e terrestre, computer quantistici fault-tolerant (IBM punta a Starling per il 2029), ripetitori quantistici di nuova generazione, espansione commerciale.

Applicazioni strategiche

Settore bancario: transazioni protette da chiavi quantistiche incorruttibili. Sanità: cartelle cliniche e dati genomici al sicuro per sempre. Energia: controllo delle smart grid senza vulnerabilità. Difesa: comunicazioni militari e diplomatiche su canali quantistici. Infrastrutture critiche: aeroporti, centrali, reti idriche protette da attacchi informatici.

Entro il 2035

L’Europa potrebbe disporre di una rete quantistica sovrana che collega tutti gli Stati membri. Le tre tecnologie quantistiche (calcolo, comunicazione, sensori) potrebbero generare fino a 97 miliardi di dollari. Il mercato globale della comunicazione quantistica, valutato in 1,1 miliardi di dollari nel 2024, è previsto che raggiunga i 5,4 miliardi nel 2030.

La corsa globale: quattro modelli a confronto

La Cina, con il satellite Micius e una rete nazionale in fibra ottica lunga 12mila chilometri, ha investito circa 15 miliardi di dollari in tecnologie quantistiche. A marzo 2025, un team cinese ha realizzato una comunicazione quantistica tra Cina e Sudafrica su 12.900 chilometri via satellite Jinan-1.

Nel dicembre 2024, China Telecom ha svelato Tianyan-504, il computer quantistico più potente del Paese con 504 qubit, e contestualmente l’infrastruttura per le comunicazioni sicure “Quantum Secure Link”, che conta quasi 6 milioni di utenti e oltre 3mila organizzazioni. Non è solo tecnologia: è soft power. Offrendo comunicazioni sicure ai Paesi partner, Pechino aumenta la dipendenza tecnologica nei suoi confronti, come fecero gli americani con Internet negli anni Novanta. L’industria quantistica cinese è passata da 93 aziende nel 2023 a 153 nel 2024. La scala dell’industria raggiungerà 1,61 miliardi di dollari entro il 2025.

Gli Stati Uniti hanno imparato la lezione dello Sputnik. La strategia attuale di Washington è duplice: crittografia post-quantistica per le comunicazioni di massa, reti quantistiche satellitari per i canali strategici. Il NIST ha già definito i primi algoritmi resistenti ai computer quantistici. NASA e DARPA lavorano su reti sperimentali.

Il budget federale per la ricerca quantistica ha raggiunto 998 milioni di dollari per il 2025. A marzo 2024, DARPA ha lanciato il programma QuANET per integrare reti quantistiche con infrastrutture classiche. La National Quantum Initiative – che coordina la strategia federale statunitense – dovrebbe invece essere a breve riautorizzata  fino al 2034, con 2,7 miliardi di dollari destinati a NIST, NSF e NASA.

La Russia procede con obiettivi militari dichiarati. Roscosmos e l’Istituto di Fisica Generale hanno testato collegamenti ottici sicuri tra satelliti e basi terrestri, in linea con il piano “Quantum Communications 2030”. La cooperazione con la Cina, dimostrata dal collegamento Mosca-Urumqi del gennaio 2024, segnala un’alleanza tecnologica che preoccupa l’Occidente.

Dal canto suo, l’Europa risponde con SAGA e un’articolata strategia quantistica: a marzo 2025 si è chiusa la call EuroQCI con 24 proposte e un budget complessivo di 90 milioni di euro per migliorare la sicurezza delle comunicazioni. Il satellite prototipo Eagle-1 sarà lanciato tra fine 2026 e inizio 2027. A giugno 2025 è stato invece inaugurato il primo computer quantistico EuroHPC a Poznan, seguito a settembre dal sistema “VLQ” a Ostrava. A luglio 2025, la Commissione europea ha inoltre adottato una Strategia Quantistica per consolidare la leadership tecnologica.

Anche l’Italia gioca un ruolo importante: il 9 dicembre 2025, la Sapienza di Roma ha presentato Qolossus 2.0, il primo computer quantistico fotonico italiano modulare. A differenza dei sistemi superconduttivi di Google e IBM, Qolossus opera a temperatura ambiente e si integra naturalmente con le comunicazioni quantistiche.

Il processore, prodotto in Italia grazie al CNR di Milano e all’Università di Pavia, rappresenta non solo un primato scientifico, ma la nostra carta, come evidenziato in numerose analisi, per non dipendere dalle architetture superconduttive americane o cinesi. È una questione di sovranità tecnologica. La scalabilità dei sistemi fotonici potrebbe cambiare le regole del gioco. “La tecnologia è pronta”, ha spiegato Sciarrino. “Ma la politica e i finanziamenti devono correre alla stessa velocità”.

Ci sono però alcuni ostacoli ancora da superare. Il punto debole sono i trusted nodes, nodi intermedi che devono decifrare e ricifrare le chiavi. Se compromessi, l’intera catena sarebbe a rischio. “I ripetitori quantistici, che eliminerebbero questo problema, sono però ancora sperimentali”, prosegue Sciarrino.

Altri ostacoli riguardano la vulnerabilità ai disturbi ambientali, la sincronizzazione tra stazioni terrestri e satelliti in movimento e i costi ancora proibitivi per applicazioni commerciali di massa. I progressi però sono rapidi. In Italia, per esempio, test sul campo hanno dimostrato la distribuzione di chiavi sulla dorsale Torino-Matera, coprendo 1.800 chilometri.

In sintesi: la Cina ha capito per prima che chi controlla le comunicazioni sicure può costruire alleanze strategiche. Gli Stati Uniti rispondono con pragmatismo, mescolando soluzioni matematiche e fisiche. SAGA ed EuroQCI rappresentano invece la terza via europea. Tutto questo non rappresenta però un traguardo, ma il punto di partenza di una nuova sfida tecnologica che potrebbe determinare le gerarchie del XXI secolo.

L'articolo Comunicazione quantistica: la nuova frontiera della sicurezza digitale europea proviene da Guerre di Rete.

  •  

Perché Bitcoin e altre criptovalute sono crollate

Immagine in evidenza di Yiğit Ali Atasoy da Unsplash

Dei tanti comandamenti che regolano il mondo delle criptovalute, il più noto e importante è probabilmente quello che recita: buy the dip (“compra il calo”). Non è una vera e propria regola (che d’altra parte, in campo finanziario e speculativo, non esistono), ma è innegabile che chi – nel corso dei quasi due decenni di esistenza dei bitcoin – ha approfittato dei vari crolli che si sono susseguiti per acquistare la più antica delle criptovalute raramente ha sbagliato.

I numeri parlano chiaro: dopo lo scoppio della grande bolla dell’inverno 2017/18, il valore dei bitcoin precipitò da 19mila a 3.500 dollari. Chi avesse avuto il sangue freddo di acquistare i bitcoin al loro minimo e mentre la stampa ne celebrava per l’ennesima volta la “morte”, per poi attendere pazientemente la risalita, avrebbe potuto realizzare nel novembre 2021, poco più di due anni e mezzo più tardi, un guadagno del 1800% circa (i bitcoin toccarono infatti, quel mese, 67mila dollari).

Lo stesso si è ripetuto in altre occasioni, sia precedenti sia successive: ogni crollo del mercato delle criptovalute è stato seguito da una netta risalita, che nel caso dei bitcoin li ha portati a infrangere un record dopo l’altro, fino a raggiungere il massimo storico di 124mila dollari nell’ottobre del 2025 (dopo essere scesi fino a 16mila dollari del dicembre 2022).

È anche per questa ragione che quando si moltiplicano i titoli sull’ennesimo (e, dal punto di vista speculativo, inevitabile) crollo delle criptovalute, è anche il momento in cui i true believers, ovvero i più fedeli sostenitori del mondo cripto, approfittano di quelli che considerano “prezzi di saldo” per acquistare bitcoin o altre monete digitali e poi attendere la risalita.

Investimenti controcorrente

Per quanto queste regole – che sono in verità previsioni basate sul comportamento passato – potrebbero sempre venire smentite, va sottolineato che il concetto di “buy the dip” non riguarda soltanto le criptovalute, ma viene anzi applicato nel mondo finanziario da secoli. Due aneddoti sono ormai passati alla leggenda (ed è infatti impossibile stabilirne la veridicità storica): il primo risale addirittura ai primi del 1800, quando Nathan Mayer Rothschild approfittò del panico causato dalle Guerre Napoleoniche per acquistare i titoli di stato britannici di cui tutti volevano liberarsi e poi, dopo la vittoria del Regno Unito, si arricchì immensamente. Il modo di dire che gli viene attribuito riassume in poche parole il concetto: “Compra quando c’è il sangue per le strade” (in cui il “sangue” è preferibilmente da intendersi metaforicamente con il significato di “crollo del valore degli asset finanziari”).

Il secondo aneddoto ha invece come protagonista Joe Kennedy. La leggenda vuole che nel 1929, all’apice della frenesia dei mercati, il padre del futuro presidente degli Stati Uniti JFK si fermò in un vicolo di Wall Street per farsi lucidare le scarpe. Mentre svolgeva il lavoro, il lustrascarpe confidò a Kennedy quali fossero le azioni secondo lui più promettenti. Per l’investitore fu una sorta di epifania: comprese che, se perfino una persona priva di qualunque competenza finanziaria si stava dilettando con le azioni, era giunto il momento di vendere. In questo modo, Joe Kennedy riuscì a liberarsi delle sue azioni mentre ancora erano ai valori massimi. Il martedì successivo, il 29 ottobre del 1929, i mercati crollarono e iniziò la Grande Depressione.

Sono due aneddoti che riassumono il cosiddetto “investimento controcorrente” (compra quando tutti vendono e viceversa) e che, tornando al mondo delle criptovalute, potremmo aggiornare così: vendi quando perfino il TG1 parla del boom dei bitcoin e compra quando sui social tutti dicono che sono morti.

Perché sono crollate le criptovalute

Andrà così anche questa volta? Le ultime settimane sono state molto pesanti sotto il fronte delle criptovalute. E questo nonostante una parte consistente degli addetti ai lavori avesse vaticinato una nuova imponente ascesa proprio nel corso dell’inverno del 2025-26, seguendo così fedelmente quel ciclo quadriennale di crescita che segue il momento dell’halving (quando cioè viene dimezzata la ricompensa in bitcoin elargita ai “miner”).

Halving e mining

Halving

Nel protocollo di Bitcoin, l’halving è l’evento programmato che dimezza la ricompensa in blocchi assegnata ai miner ogni volta che viene aggiunto un nuovo blocco alla blockchain. Avviene automaticamente a intervalli prestabiliti (per Bitcoin: ogni 210.000 blocchi, circa ogni quattro anni). Lo scopo è ridurre progressivamente l’emissione di nuova moneta fino ad arrivare al momento in cui questa si interromperà (ovvero quando i bitcoin avranno raggiunto la quota prestabilita di 21 milioni).

Miner

Il miner è il nodo della rete che esegue il processo di mining: utilizza hardware specializzato per risolvere un problema computazionale (“proof-of-work”) necessario a validare un nuovo blocco di transazioni in bitcoin. Il primo miner che convalida il blocco di transazioni ottiene una ricompensa in bitcoin. Il mining garantisce la sicurezza del network.

E invece, dopo i massimi di ottobre e una fase di stagnazione, il mercato delle criptovalute è crollato sul finire del mese di novembre: i bitcoin sono scesi di oltre il 30% rispetto ai massimi di ottobre 2025 (da 124mila a 84mila dollari), mentre cali anche peggiori sono stati accusati da ether (-40%), XRP (-45%) e tutte le altre principali altcoin. Nel complesso, il mercato delle criptovalute ha perso oltre mille miliardi di dollari di valore, prima di tentare, nei primi giorni di dicembre, una timida ripresa.

Che cos’è successo? Perché un crollo così improvviso e imprevisto proprio nell’anno dell’elezione di Donald Trump, che in campagna elettorale aveva promesso di rendere gli Stati Uniti la prima “cripto-superpotenza” della storia? La teoria più diffusa, ripresa anche dal Wall Street Journal, vuole che questo crollo sia paradossalmente legato al successo delle criptovalute e alla loro diffusione tra i grandi investitori istituzionali, avvenuta soprattutto in seguito all’esplosione degli ETF. Gli exchange-traded fund sono strumenti finanziari quotati in Borsa, che replicano l’andamento di un asset – in questo caso i bitcoin o gli ether – e che consentono agli investitori di esporsi alle criptovalute senza possederle direttamente. 

Dopo le prime approvazioni negli Stati Uniti, avvenute a inizio 2024, gli ETF che trattano bitcoin ed ether sono esplosi, venendo adottati da colossi come BlackRock, Fidelity, Invesco, Ark Invest e attirando decine di miliardi di dollari (che a loro volta hanno fatto crescere il valore del mercato cripto, che tra il 2024 e il 2025 è passato da 1.600 a 4.200 miliardi di dollari).

Come ha però sintetizzato, parlando con il WSJ, Cory Klippsten, CEO dell’exchange Swan Bitcoin, “una volta che le istituzioni sono coinvolte, le criptovalute iniziano a essere scambiate come un asset istituzionale”. In parole più semplici, i tempi in cui l’andamento dei bitcoin era scollegato dal mercato tradizionale (e in alcune occasioni andava addirittura in direzione inversa, perché i più avventurosi si rivolgevano alle criptovalute quando Wall Street non dava loro soddisfazione) sono passati. Oggi, proprio per via della loro adozione istituzionale, il mercato delle criptovalute tende a muoversi in maniera sempre più correlata agli indici finanziari tradizionali.

Stando a questa interpretazione, non è un caso che il crollo dei bitcoin sia avvenuto a novembre, mese segnato da grandi turbolenze finanziarie legate al timore di un imminente scoppio della bolla dell’intelligenza artificiale. Per quanto percentualmente più contenuto, il brusco calo del valore delle azioni di Nvidia o Meta si è verificato negli stessi giorni in cui sono crollate le criptovalute, confermando come il mercato dei bitcoin ormai segua l’andamento di quello tradizionale.

“Dal mese di ottobre, i bitcoin si sono comportati più come azioni tech ad alta crescita che come un bene rifugio non correlato”, si legge sul South China Morning Post, che cita un report della Deutsche Bank. Che la correlazione tra il mercato cripto e quello tradizionale stesse aumentando era evidente già da tempo, ma il fatto che questa dinamica si stia ulteriormente rafforzando potrebbe allontanare i cosiddetti investitori “retail” (i piccoli investitori comuni), che sono stati storicamente attratti dall’alta volatilità dei bitcoin e dai loro meccanismi peculiari. 

Nel momento in cui il mercato delle criptovalute (soprattutto di quelle più consolidate) inizia a muoversi come il Nasdaq e a diventare sempre più istituzionale, i piccoli investitori potrebbero andare in cerca di nuovi e ancora sconosciuti modi per facili (ma rischiosi) guadagni, com’è stato in passato con i “marijuana stocks”, i meme stocks (celebre il caso GameStop) e più di recente con i memecoin (su cui torneremo tra poco).

A confermare questa teoria è ancora la Deutsche Bank, secondo cui l’adozione dei bitcoin e delle altre più diffuse criptovalute sarebbe scesa tra gli investitori retail dal 17% della scorsa estate al 15% attuale. Un calo ridotto ma significativo, visto che l’adozione in costante crescita (anche se solo a scopo di compravendita) è uno dei fattori fondamentali alla base delle previsioni al rialzo. 

Un altro aspetto che probabilmente ha influenzato il crollo dei bitcoin è che, come nota la CNBC, i dati sull’occupazione negli Stati Uniti per il mese di settembre hanno mostrato una crescita dei posti di lavoro più forte del previsto (119mila nuovi impieghi contro i circa 50mila previsti). Numeri positivi ma che hanno ridotto la probabilità di un taglio dei tassi d’interesse da parte della Federal Reserve durante il mese di dicembre, mentre contestualmente anche la BCE ha mantenuto i tassi invariati. I tagli dei tassi sono generalmente considerati una buona notizia per il prezzo dei bitcoin, perché aumentano la liquidità nei mercati e quindi possono fare da volano ai mercati speculativi.

Il boom c’è già stato

E se invece le cose fossero molto più semplici di così? Come abbiamo accennato, almeno a partire dal 2013 i bitcoin si muovono a cicli quadriennali, con il massimo della crescita che avviene durante l’inverno. È uno schema che si ripete da 12 anni e che non ha mai tradito le aspettative. Ma è possibile che un meccanismo speculativo si ripeta identico ogni quattro anni? Ovviamente, no: se tutti sapessimo con certezza quando vendere e quando comprare non troveremmo nessuno disposto, viceversa, ad acquistare ciò che vogliamo vendere o a vendere quando vogliamo comprare.

Una variabilità nella dinamica del ciclo quadriennale è necessaria per evitare che il mercato si blocchi. E quindi, se il tanto atteso boom delle criptovalute ci fosse semplicemente già stato? Se fosse solo stato anticipato rispetto alle attese, e adesso stessimo assistendo all’inevitabile correzione che segue un’imponente crescita? Se l’ascesa – e anche il declino, se si arresterà sui valori attuali – fosse semplicemente stata inferiore alle attese?

In effetti, il primo grande picco storico nel valore dei bitcoin e delle altcoin (ether e tutte le altre criptovalute minori) fu raggiunto, come detto, nella metà del dicembre 2017. Avanti di quattro anni, nel 2021 il nuovo massimo dei bitcoin viene raggiunto nella prima metà di novembre, quindi circa un mese in anticipo. Nel 2025, il massimo storico dei bitcoin è stato raggiunto a ottobre (tutti i dati sono presi da CoinMarketCap e CoinGecko).

È come se il picco di questo famigerato ciclo quadriennale venisse via via anticipato di un mese dagli investitori più avveduti, che così mandano il primo importante segnale ribassista al mercato. Allo stesso tempo, e in questo caso probabilmente a causa dell’istituzionalizzazione dei bitcoin, le impennate della più antica criptovaluta e del mercato nel suo complesso sono sempre meno brusche.

Dal massimo del 2013 a quello del 2017, il valore dei bitcoin aumentò di quasi 20 volte (da mille dollari a 19mila). Tra il 2017 e il 2021, la crescita fu “solo” del 230% (da 19mila a 67mila). Tra il 2021 e il 2025 è stata (a meno di improvvise sorprese) invece del 96% (da 67mila a 124mila). Se le cose stessero così, sarebbe un altro segnale della normalizzazione dei bitcoin e i suoi fratelli, il cui mercato continua a essere molto più volatile delle azioni tradizionali, ma lo è sempre meno.

C’è però un altro elemento che torna ogni quattro anni e che ha accompagnato le varie ascese dei bitcoin e delle altcoin: il fatto che ogni ciclo fosse anticipato e alimentato da un concomitante fenomeno ultraspeculativo sempre basato su blockchain e criptovalute. Nel 2017 fu la volta delle ICO (initial coin offering, una sorta di “quotazione in borsa” ufficiosa di alcune imprese basate su blockchain, che si finanziavano vendendo i loro token, acquistati nella speranza che aumentassero di valore). Nel 2021 fu invece il turno dei notissimi NFT (non-fungible token, una specie di firma elettronica basata su blockchain che certifica la proprietà di un bene digitale). 

E nel 2025? Per quanto siano almeno in parte già stati dimenticati, l’anno che sta per concludersi (e anche quello precedente) è stato all’insegna dei “memecoin”: token creati su piattaforme blockchain come Ethereum o Solana, che spesso prendono il nome di influencer o celebrità (tra cui lo stesso Donald Trump), la cui vita finanziaria è di pochi giorni o settimane e che vengono creati senza nessuno scopo al di fuori della pura e spregiudicata speculazione. 

Tutto ciò sembra confermare, insomma, che il ciclo non sia stato mancato, ma semplicemente sia stato meno robusto delle attese (o speranze) e leggermente anticipato: “La verità è che l’hangover era iniziato già da mesi”, ha spiegato Thomas Perfumo, economista dell’exchange Kraken. La sensazione che si sia giunti alla fine dell’attuale ciclo è confermata anche da Matthew Hogan, responsabile degli investimenti di Bitwise Asset Management: “Penso che si sia più vicini alla fine delle vendite che al loro inizio, ma i mercati sono in turbolenza e potrebbero esserci altri cali prima di vedere una risalita”.

Se così fosse, significherebbe che a una crescita ridotta segue una correzione di circa il 30/40%, molto inferiore rispetto ai crolli del passato, che superavano anche l’80%. Bisognerà però aspettare ancora a lungo per essere sicuri che la caduta si sia già fermata, e nel frattempo – ovviamente – tutto potrebbe ancora accadere e ogni previsione e interpretazione venire seccamente smentita.

L'articolo Perché Bitcoin e altre criptovalute sono crollate proviene da Guerre di Rete.

  •  

L’eterno ritorno di Chat Control

Immagine in evidenza da stopchatcontrol.fr

Si torna a parlare di lotta agli abusi sui minori, privacy e crittografia end-to-end, dopo che, il 26 novembre, il Consiglio UE ha votato a favore dell’approvazione del nuovo testo del Child Sexual Abuse Regulation (CSAR), più comunemente conosciuto come Chat Control. La proposta di legge, di cui si discute ormai da più di tre anni, è volta a limitare la diffusione di materiale pedopornografico online attraverso nuove disposizioni per le piattaforme e i fornitori di servizi digitali, inclusa la possibilità di effettuare una scansione preventiva e costante dei contenuti che gli utenti si scambiano, per esempio, su WhatsApp, Telegram o Gmail, al fine di rilevare attività di adescamento di minori o movimento di materiale pedopornografico.

La proposta, che da tempo cerca un equilibrio tra la necessità di proteggere i minori da abusi sessuali e quella di tutelare i diritti fondamentali dei cittadini europei (a partire dalla privacy), ha sollevato non poche critiche da parte dei funzionari di governo, degli esperti di sicurezza, delle società di servizi coinvolte e, non da ultimi, degli utenti stessi. E ora, dopo il voto favorevole ottenuto dopo numerosi rinvii, il senso di preoccupazione sta rapidamente crescendo. Proprio per questo, è importante fare chiarezza sul cosiddetto Chat Control: cos’è, quali regolamentazioni prevede, quali sono i reali rischi per la privacy, e come potrebbe cambiare la nostra vita.

Chat Control: cos’è e cosa prevede

Era l’11 maggio 2022 quando, per la prima volta, la Commissione Europea presentava una nuova proposta legislativa “per prevenire e combattere gli abusi sessuali sui minori in rete”. Una manovra presentata come necessaria a causa della crescente diffusione di materiale pedopornografico in rete rilevata a partire dal 2021 – anno in cui, stando ai dati riportati dalla Commissione, sono stati segnalati “85 milioni di immagini e video che ritraggono abusi sessuali su minori” – e l’incapacità del sistema attualmente in vigore – il cosiddetto Chat Control 1.0, che prevede la segnalazione di abusi tramite monitoraggio volontario dei fornitori di servizi digitali – di proteggere adeguatamente i minori.

Per contenere quanto più possibile la situazione, in quell’occasione la Commissione ha proposto “una legislazione per affrontare efficacemente l’abuso sessuale su minori online, anche richiedendo ai prestatori di

rilevare materiale pedopornografico noto e […] la creazione di un Centro dell’UE di prevenzione e lotta contro l’abuso sessuale su minori”.

Una serie di norme, in sostanza, che consentirebbero a un’ampia gamma di fornitori di servizi Internet, compresi i servizi di hosting e di messaggistica, di accedere e scansionare le conversazioni private degli utenti al fine di “individuare, segnalare e rimuovere il materiale pedopornografico dai loro servizi”, o rilevare episodi di “adescamento di minori” (grooming). Un’operazione che le compagnie dovrebbero attuare attraverso “tecnologie che siano il meno invasive possibile per la privacy, in linea con lo stato dell’arte del settore, e che limitino il più possibile il tasso di errore dei falsi positivi”.

Allo stato attuale, il cosiddetto Chat Control richiede ai “prestatori di servizi di hosting e prestatori di servizi di comunicazione interpersonale” di individuare, esaminare e valutare “per ciascun servizio che offrono, il rischio di un suo uso a fini di abuso sessuale su minori online”. E poi di prendere “misure di attenuazione ragionevoli e adeguate al rischio individuato […] per ridurlo al minimo”.

Tra queste misure, come anticipato, rientra anche la scansione delle conversazioni private degli utenti: uno strumento che le piattaforme e i fornitori di servizi possono utilizzare ai fini della valutazione del rischio e della sua attenuazione. Tuttavia, la proposta prevede che, se dopo la valutazione e le misure adottate dal fornitore sussiste ancora un rischio significativo che il servizio possa essere utilizzato per abusi sui minori, le autorità nazionali designate possano avvalersi di questo strumento per indagare sulla diffusione di materiale pedopornografico. In questo caso, possono chiedere all’autorità giudiziaria o amministrativa di “emettere un ordine di rilevazione che impone a un prestatore di servizi di hosting o a un prestatore di servizi di comunicazione interpersonale rientrante nella giurisdizione dello Stato membro in questione di prendere le misure […] per rilevare casi di abuso sessuale su minori online in un servizio specifico”.

Anche in questo caso, però, la proposta della Commissione Europea specifica che le autorità devono avvalersi di tecnologie che non siano invasive nei confronti degli utenti coinvolti, ma che siano anzi “efficaci nel rilevare la diffusione di materiale pedopornografico noto o nuovo o l’adescamento di minori, a seconda dei casi” e “non in grado di estrarre dalle comunicazioni in questione informazioni diverse da quelle strettamente necessarie per rilevare […] pattern rivelatori di diffusione di materiale pedopornografico noto o nuovo o di adescamento di minori”.

Data la delicatezza della scansione, soprattutto nelle comunicazioni private e crittografate, il regolamento prevede una serie di garanzie, quali la limitazione della durata degli ordini, il controllo umano delle tecnologie di rilevamento, la riduzione al minimo dei dati trattati e l’accesso a meccanismi di ricorso per gli utenti e i fornitori. Pertanto, per garantire che il regolamento venga rispettato, la proposta introduce anche il Centro dell’UE per la prevenzione e la lotta contro gli abusi sessuali sui minori, che svolgerà un ruolo di supporto alle autorità e alle piattaforme fornendo banche dati di indicatori affidabili e tecnologie di rilevamento adeguate, contribuendo a ridurre i falsi positivi e gli impatti invasivi.

Le origini e le evoluzioni della proposta di legge

La proposta avanzata dalla Commissione Europea nel 2022 non dichiarava apertamente che i telefoni dei cittadini europei sarebbero stati scansionati alla ricerca di materiale pedopornografico, ma introduceva il concetto di “obblighi di rilevamento” che i fornitori di servizi dovevano rispettare, anche nel caso in cui questi proteggessero la privacy degli utenti con la crittografia end-to-end.

Questo significava, quindi, che le autorità coinvolte nella rilevazione potessero ricorrere alla scansione lato client, ossia all’analisi di contenuti digitali presenti sui dispositivi degli utenti prima ancora che venissero crittografati e inviati o ricevuti.

Com’è noto, la proposta ha sin da subito scatenato le critiche di governi ed esperti di sicurezza e privacy, tanto che nel 2023 il Parlamento Europeo ha escluso sia la crittografia end-to-end sia i messaggi di testo dall’ambito di applicazione degli obblighi, limitando questi ultimi ai casi di ragionevole sospetto e impedendo di fatto la scansione indiscriminata. Pertanto, solo se i fornitori non rispettano le norme per la sicurezza dei minori, le autorità competenti possono emettere un ordine di scansione e rilevamento di materiale pedopornografico dai dispositivi degli utenti.

Nel corso degli anni, però, la proposta ha subìto decine di modifiche e aggiornamenti. L’1 luglio 2025, il Consiglio dell’Unione Europea ha presentato una proposta in cui si afferma chiaramente che, per i servizi dotati di crittografia end-to-end (che impedisce a chiunque di leggere i messaggi, esclusi soltanto mittente e destinatario) come WhatsApp, Signal e Telegram, il rilevamento avviene “prima della trasmissione dei contenuti” – ossia prima che questi vengano crittografati – installando un software preposto alla scansione, ma con una clausola di “consenso dell’utente”.

Allo stato attuale, Chat Control rimane soltanto una proposta. Per far sì che diventi una legge a tutti gli effetti è necessario l’avvio di triloghi – “un negoziato interistituzionale informale che riunisce rappresentanti del Parlamento europeo, del Consiglio dell’Unione europea e della Commissione europea” – che mettano d’accordo le parti. Se la linea attuale del Consiglio dovesse essere approvata, questo comporterebbe l’installazione di un software che controlli i contenuti prima della crittografia per i servizi end-to-end; al contrario, se prevalesse la linea del Parlamento, non verrebbe effettuata alcuna scansione preventiva dei contenuti.

Proprio per questo, lo scorso 14 ottobre era stato fissato come data per il voto del Consiglio UE sul Child Sexual Abuse Regulation (Csar): un giorno in cui i ministri dei diversi paesi membri avrebbero espresso il proprio parere sulla proposta. A una settimana dalla data, dopo aver subito forti pressioni da parte dell’opinione pubblica, la Germania si era dichiarata contraria al disegno di legge, costringendo l’intero Consiglio a rimandare il voto finale sull’approvazione.

“Il monitoraggio ingiustificato delle chat deve essere un tabù in uno Stato di diritto. La comunicazione privata non deve mai essere soggetta a sospetti generalizzati. Né lo Stato deve obbligare a scansionare in massa i messaggi alla ricerca di contenuti sospetti prima di inviarli. La Germania non accetterà tali proposte a livello UE (…). Nemmeno i crimini peggiori giustificano la rinuncia ai diritti civili fondamentali”, ha dichiarato Stefanie Hubig, ministra federale della Giustizia e della Tutela dei consumatori, commentando la scelta della Germania, che ha stravolto l’agenda legislativa della Commissione Europea.

La svolta danese

Dopo tante controversie, lo scorso novembre la presidenza danese del Consiglio dell’Unione europea ha introdotto un’importante revisione alla proposta del Child Sexual Abuse Regulation (CSAR), in cui le “disposizioni relative agli obblighi di rilevamento (articoli da 7 a 11) sarebbero eliminate dal testo”.

In questo modo, il regolamento mantiene il monitoraggio delle chat private degli utenti, senza renderlo obbligatorio, ma trasformandolo in uno strumento che le aziende tecnologiche possono utilizzare a propria discrezione. Anche se, come si legge nella proposta della presidenza danese, “i fornitori di servizi ad alto rischio, in cooperazione con il Centro dell’UE, potrebbero comunque essere tenuti ad adottare misure per sfruttare le tecnologie adeguate per mitigare il rischio di abusi sessuali sui minori individuati sui loro servizi”.

La modifica della Danimarca ha segnato un momento importante nell’evoluzione di Chat Control, che lo scorso 26 novembre ha ottenuto l’approvazione dei rappresentanti dei 27 paesi membri dell’Unione Europea, dando così inizio all’ultima fase che precede l’approvazione del regolamento: la discussione tra Parlamento Europeo, Consiglio dell’Unione Europea e Commissione Europea.

“Ogni anno vengono condivisi milioni di file che ritraggono visivamente abusi sessuali su minori. Dietro ogni singolo video e immagine c’è un minore che ha subito gli abusi più orribili e tremendi. Ciò è del tutto inaccettabile”, ha commentato Peter Hummelgaard, ministro danese della Giustizia, dopo la votazione svoltasi a Bruxelles. “Sono pertanto lieto che gli Stati membri abbiano finalmente concordato una via da seguire che prevede una serie di obblighi per i prestatori di servizi di comunicazione al fine di combattere la diffusione di materiale di abuso sessuale su minori”. 

Allo stato attuale, secondo quanto approvato dai paesi membri dell’UE, “i fornitori di servizi online saranno tenuti a valutare il rischio che le loro piattaforme possano essere utilizzate impropriamente per diffondere materiale di abuso sessuale su minori o per adescare minori. Sulla base di tale valutazione, dovranno attuare misure di attenuazione per contrastare tale rischio. Tali misure potrebbero includere la messa a disposizione di strumenti che consentano agli utenti di segnalare casi di abuso sessuale su minori online, di controllare quali contenuti che li riguardano sono condivisi con altri e di predisporre impostazioni predefinite a tutela della vita privata dei minori”.

L’interesse del Consiglio è quello di arrivare ai triloghi il prima possibile, considerando che ad aprile 2026 scadrà la legislazione temporanea che consente alle app di eseguire la scansione alla ricerca di materiale pedopornografico. “Il Consiglio ha finalmente adottato la sua posizione sul regolamento CSA”, ha commentato in un post pubblicato su X il deputato spagnolo Javier Zarzalejos, leader delle negoziazioni in Parlamento. “Abbiamo bisogno di un quadro legislativo obbligatorio e a lungo termine con solide garanzie. Il tempo sta per scadere e ogni minuto che perdiamo senza una legislazione efficace significa più bambini danneggiati”.

La nuova proposta non sembra però incontrare né il sostegno delle forze dell’ordine, preoccupate che i contenuti illegali rimarranno nascosti nelle applicazioni con crittografia end-to-end, né gli attivisti a difesa della privacy, preoccupati che il rilevamento – seppur volontario – possa trasformarsi in uno strumento di sorveglianza di massa.

I rischi di Chat Control

E qui arriviamo a un altro dei punti deboli della proposta della Commissione ampiamente criticato dagli attivisti, l’alto tasso di falsi positivi. I sistemi di scansione automatica, infatti, spesso segnalano come illegali contenuti che non lo sono affatto, come le foto di bambini sulla spiaggia scattate durante le vacanze familiari. Secondo la polizia federale della Svizzera, per esempio, l’80% di tutte le segnalazioni elaborate da programmi informatici si rivelano infondate. E stando ai dati raccolti in Irlanda, invece, solo il 20% delle segnalazioni ricevute dal National Center for Missing and Exploited Children (NCMEC) nel 2020 sono state confermate come effettivo “materiale pedopornografico”. Il rischio, quindi, è che i cittadini vengano coinvolti in indagini sull’abuso di minori senza aver mai commesso alcun reato e, per di più, vedendo compromessa la propria privacy.

E non è tutto. Molti critici, infatti, temono anche il cosiddetto “function creep”: una volta che esisterà un sistema per la scansione di tutti i messaggi degli utenti, i futuri governi potrebbero essere tentati di estenderne l’applicazione ad altri settori, come il terrorismo o, nel peggiore dei casi, censurando il dissenso politico. “Una volta che viene implementato una tecnologia di questo genere, significa che avremo un sistema che controlla tutte le nostre comunicazioni e decide se sono legali o no”, ha commentato Udbhav Tiwari, VP strategy and global affairs di Signal, nel corso del webinar Stop Chat Control tenutosi lo scorso 30 settembre. “Il suo funzionamento dipende esclusivamente da come e con quali dati viene addestrato”.

Un’opinione condivisa dai governi di Repubblica Ceca, Paesi Bassi e Olanda, che hanno espresso un voto contrario lo scorso 26 novembre. E così pure – o quasi – dall’Italia, che ha deciso di astenersi dalla votazione, sottolineando la preoccupazione che una forma di sorveglianza delle comunicazioni potrebbe ledere i diritti costituzionali della persona.

“I titoli dei giornali sono fuorvianti: Chat Control non è morto, è solo stato privatizzato”, ha commentato Patrick Breyer, ex eurodeputato oggi alla guida del movimento Fight Chat Control. “Quello che il Consiglio ha approvato oggi è un cavallo di Troia. Consolidando la scansione di massa ‘volontaria’, stanno legittimando la sorveglianza di massa senza mandato e soggetta a errori di milioni di europei da parte delle aziende statunitensi”.

Il termine “volontario” per definire il rilevamento proposto dalla presidenza danese, secondo Breyer, sarebbe ingannevole: “Il testo mira a rendere permanente la normativa temporanea ‘Chat Control 1.0’”, che consente a fornitori come Meta o Google di scansionare le chat private degli utenti, indiscriminatamente e senza un mandato del tribunale. Nulla di troppo diverso, quindi, rispetto alla proposta originaria. Chat Control, secondo gli attivisti, è e continua a essere uno strumento pericoloso per la sicurezza e la privacy dei cittadini.

L'articolo L’eterno ritorno di Chat Control proviene da Guerre di Rete.

  •  

Perché è così difficile fermare i deepnude

È il dicembre 2017 quando la giornalista statunitense Samantha Cole scova sul forum Reddit il primo deepfake che gira in rete. È un video che riproduce l’attrice e modella israeliana Gal Gadot mentre ha un rapporto sessuale.

Le immagini non sono precise, il volto non sempre combacia con il corpo e, quando si mette in play, il video genera il cosiddetto effetto uncanny valley, ovvero quella sensazione di disagio che si prova quando si osserva un robot con caratteristiche umane non del tutto realistiche.

Come racconta Cole nell’articolo, “deepfakes” – questo il nome dell’utente – continuerà a pubblicare altri video generati con l’intelligenza artificiale e manipolati con contenuti espliciti: una volta con il volto di Scarlett Johansson, un’altra con quello di Taylor Swift. Il fatto che siano persone famose permette di avere più materiale fotografico e video da “dare in pasto” allo strumento e ottenere così un risultato il più possibile verosimile. Ma l’essere note al grande pubblico non è il solo tratto che le accomuna: tutte le persone colpite da deepfake sono donne, e tutte vengono spogliate e riprodotte in pose sessualmente esplicite senza esserne a conoscenza, e quindi senza aver dato il proprio consenso.

In appena qualche anno, i deepfake sessuali – anche noti come deepnude – sono diventati un fenomeno in preoccupante espansione in tutto il mondo. Senza più quelle “imprecisioni” che li caratterizzavano ancora nel 2017, oggi riescono a manipolare l’immagine a partire da una sola foto.

Anche in Italia se ne parla sempre più frequentemente, come dimostra la recente denuncia di Francesca Barra. Il 26 ottobre, la giornalista e conduttrice televisiva ha scritto un lungo post su Instagram dove racconta di aver scoperto che alcune immagini di lei nuda, generate con l’intelligenza artificiale, circolano da tempo su un sito dedicato esclusivamente alla condivisione di immagini pornografiche rubate o manipolate con l’IA. “È una violenza e un abuso che marchia la dignità, la reputazione e la fiducia”, ha scritto nel post Barra, che si è detta preoccupata per tutte quelle ragazze che subiscono la stessa violenza e che magari non hanno gli stessi strumenti per difendersi o reagire.

I casi nei licei italiani

In effetti, casi analoghi sono già scoppiati in diversi licei in tutta Italia. A inizio anno, quattro studentesse di un liceo scientifico di Roma hanno ricevuto foto prese dai loro account Instagram in cui apparivano completamente nude. A manipolare le immagini è stato un loro compagno di classe, a cui è bastato caricare le foto su un bot su Telegram che in pochi istanti ha “spogliato” le ragazze.

La Procura di Cosenza starebbe invece indagando su un altro caso che, secondo le cronache locali, arriverebbe a coinvolgere quasi 200 minorenni per un totale di 1200 deepnude. La dinamica è sempre la stessa: attraverso bot Telegram e strumenti online, studenti maschi hanno manipolato le foto delle loro compagne di classe.

Secondo un’analisi condotta nel 2023, il 98% dei deepfake online registrati quell’anno (95.820) era a contenuto sessuale. Nel 99% di questi, la persona colpita era donna. Insomma, già quel primo video su Reddit preannunciava un utilizzo di questi strumenti volto quasi esclusivamente a quello che, in inglese, è stato inquadrato come image-based sexual abuse (IBSA), un abuso sessuale condotto attraverso l’immagine.

“Intorno alla violenza digitale rimane sempre un po’ il mito che sia in qualche modo meno reale rispetto alla violenza fisica. Ma non è affatto così”, spiega a Guerre di Rete Silvia Semenzin, ricercatrice in sociologia digitale all’università Complutense di Madrid. “Le vittime di deepfake subiscono le stesse identiche conseguenze delle vittime di condivisione di materiale sessuale non consensuale. Quasi sempre, la violenza è continuativa e intrecciata nelle sue varie declinazioni, quindi alle molestie, allo stalking, ecc. A mio avviso, con i deepfake si entra in una fase della violenza in cui diventa anche più manifesta la volontà di controllo sul corpo femminile. Perché le radici del fenomeno sono di tipo culturale e affondano sempre nella volontà di sopraffazione del soggetto femminile da parte degli uomini, in questo caso attraverso l’utilizzo della tecnologia”.

La complicità delle piattaforme

I canali su cui vengono generati e diffusi maggiormente i deepfake sessuali sono generalmente siti anonimizzati che sfruttano hosting offshore e che non rispondono alle richieste legali di altri stati. Quello su cui Francesca Barra e altre donne dello spettacolo hanno scoperto i loro deepfake (di cui non faremo il nome per non dare maggiore visibilità) è attivo già dal 2012, anno di registrazione a New York. Se i contenuti presenti sono sempre materiali espliciti non consensuali, trafugati dai social media o da piattaforme pornografiche come Pornhub e OnlyFans, in cima all’interfaccia utente spiccano invece gli strumenti che permettono di creare con l’intelligenza artificiale la propria “schiava sessuale”. Questa scelta rivela come l’“offerta” all’utente non solo comprenda i deepnude, ma li consideri anche il “prodotto di punta” con cui invogliare all’utilizzo e ampliare la platea di visitatori.

Silvia Semenzin e la collega Lucia Bainotti, ricercatrice in sociologia all’Università di Amsterdam, nel 2021 hanno pubblicato un saggio dal titolo Donne tutte puttane, revenge porn e maschilità egemone. Oltre ad anticipare già il tema dei deepfake sessuali, le due autrici in quel testo tracciavano il modo in cui l’architettura dei siti e delle piattaforme su cui vengono diffuse maggiormente immagini sessuali non consensuali possa essere complice dell’abuso fornendone gli strumenti. In particolare, la ricerca era incentrata sui gruppi di persone che condividono materiale non consensuale soprattutto su Telegram, app di messaggistica dove si muovono ancora adesso molti dei bot capaci di spogliare la donna in un solo clic.

La possibilità di creare canali con molti utenti, assieme alla facilità di archiviazione nel cloud della stessa piattaforma e alla percezione di agire nell’anonimato sono alcune delle funzioni che garantiscono la continuità delle attività e rendono praticamente impossibile fermare la proliferazione di deepfake e materiale intimo non consensuale.

Tutte queste funzionalità socio-tecniche, chiamate affordances (inviti all’uso) possono essere considerate “genderizzate”, perché vengono utilizzate in modo diverso a seconda che l’utente sia uomo o donna, contribuendo così a costruire la propria identità di genere. Per questo motivo – spiegano le due ricercatrici – l’architettura di Telegram può risultare complice nel fornire gli strumenti attraverso cui le violenze di genere vengono messe in pratica e reiterate.

Raggiunta da Guerre di Rete, Bainotti spiega quali cambiamenti ha osservato nelle sue ricerche più recenti rispetto all’estensione del fenomeno e al modo in cui piattaforme e siti agevolano la diffusione di questo materiale: “C’è stato sicuramente un aumento consistente nel numero di utenti, per quanto sia difficile tenere traccia del dato preciso (ogni qualvolta viene buttato giù un gruppo se ne apre subito uno speculare). Quello che sicuramente ho riscontrato è che sono aumentati i bot attraverso cui generare i deepfake, e la pubblicità che ruota intorno a questi ‘prodotti’”, racconta Bainotti.

“Ci sono dei meccanismi di monetizzazione molto più espliciti e molto più capillari”, prosegue Bainotti. “Spesso per creare un deepfake vengono chiesti pochi centesimi di euro. Questo ci dà un’indicazione del fatto che sono comunque prezzi molto accessibili, che non richiedono un particolare investimento monetario. In più, sono stati messi a punto schemi per coinvolgere più persone e fidelizzare più utenti. Se inviti altri amici, per esempio, ottieni delle monete virtuali per scaricare altri deepfake. Vengono quindi riproposti schemi che avevamo già osservato su Telegram, che incitano a generare immagini di nudo come fosse un gioco (gamification), normalizzando queste pratiche”.

X, Google e non solo: tutto alla luce del sole

Tutto questo non avviene nel darkweb o in qualche meandro della rete, ma alla luce del sole. Google e altri motori di ricerca indirizzano il traffico verso siti che fanno profitto attraverso la generazione di deepfake sessuali che, nelle ricerche, vengono a loro volta indicizzati tra i primi risultati. Allo stesso modo le transazioni avvengono spesso su circuiti internazionali come Visa e Mastercard. Insomma, ogni attore coinvolto contribuisce in una certa misura a facilitare l’abuso.

Nell’agosto 2024, a otto mesi di distanza dai deepnude di Taylor Swift diventati virali su X, Google ha annunciato provvedimenti per facilitare le richieste di rimozione di contenuti espliciti non consensuali da parte delle vittime. Anche l’indicizzazione è stata rivista in modo tale che i primi risultati a comparire siano articoli di stampa che trattano l’argomento e non le immagini generate con l’IA. Eppure, una recente analisi dell’organizzazione  anti-estremismo Institute for Strategic Dialogue (ISD) ha dimostrato che il modo più semplice per trovare immagini sessuali non consensuali rimane proprio quello della ricerca su Google, Yahoo, Bing e altri motori di ricerca. Almeno un risultato dei primi venti, infatti, è uno strumento per creare un deepnude.

Dall’acquisizione nel 2022 di Elon Musk, anche X è diventato un luogo dove questi strumenti proliferano. Secondo Chiara Puglielli e Anne Craanen, autrici del paper pubblicato da ISD, il social media di proprietà di Musk genererebbe il 70% di tutta l’attività analizzata dalle due ricercatrici, che coinvolge più di 410mila risultati.

Risulta problematico anche il form proposto da Google per chiedere la rimozione di un contenuto generato con l’IA: le vittime di image-based sexual abuse devono inserire nel modulo tutti i link che rimandano al contenuto non consensuale. Questo le costringe a tornare sui luoghi in cui si è consumato l’abuso, contribuendo a quella che notoriamente viene definita vittimizzazione secondaria, ovvero la condizione di ulteriore sofferenza a cui sono sottoposte le vittime di violenza di genere per mano di istituzioni ed enti terzi.

“Ancora oggi le piattaforme prevedono che sia a onere della vittima ‘procacciarsi’ le prove della violenza e dimostrare che il consenso era assente, quando invece si dovrebbe ragionare al contrario”, spiega ancora Semenzin. “Se denuncio la condivisione di una foto senza il mio consenso, la piattaforma dovrebbe rimuoverla lasciando semmai a chi l’ha pubblicata il compito di dimostrare che il consenso c’era. Questo sarebbe già un cambio di paradigma”.

Il Digital Services Act obbliga le piattaforme digitali con più di 45 milioni di utenti ad avere processi efficienti e rapidi per la rimozione di contenuti non consensuali o illegali. A fine ottobre, la Commissione Europea ha aperto delle procedure di infrazione contro Instagram e Facebook per aver aggiunto delle fasi non necessarie – note come dark patterns (modelli oscuri) – nei meccanismi di segnalazione di materiale illecito che potrebbero risultare “confuse e dissuasive” per gli utenti. Meta rischia una sanzione pari al 6% del fatturato annuo mondiale se non si conforma nei tempi dettati dalla Commissione.

Più in generale, è stato osservato in più studi che gli algoritmi di molte piattaforme amplificano la visibilità di contenuti misogini e suprematisti. Usando smartphone precedentemente mai utilizzati, tre ricercatrici dell’Università di Dublino hanno seguito ore di video e centinaia di contenuti proposti su TikTok e Youtube Shorts: tutti i nuovi account identificati con il genere maschile hanno ricevuto entro i primi 23 minuti video e immagini anti-femministi e maschilisti.

È stato riscontrato inoltre un rapido incremento se l’utente interagiva o mostrava interesse per uno dei contenuti in questione, arrivando a “occupare” la quasi totalità del feed delle due piattaforme. Nell’ultima fase dell’osservazione, il 76% di tutti i video su Tik Tok e il 78% di quelli proposti su YouTube mostravano a quel punto contenuti tossici realizzati da influencer della maschiosfera, il cui volto più noto è sicuramente Andrew Tate, accusato in più paesi di violenza sessuale e tratta di esseri umani.

Lacune legali

Dallo scorso 10 ottobre, in Italia è in vigore l’articolo 612 quater che legifera sulla “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. È prevista la reclusione da uno a cinque anni per “chiunque cagioni un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale”.

Essendo trascorso poco più di un mese dalla sua entrata in vigore, non si hanno ancora sentenze che facciano giurisprudenza e che mostrino efficacia e limiti della norma. Quello che appare evidente è però che il testo si occupa di tutti i materiali generati con l’IA, senza entrare nello specifico dei casi in cui i contenuti manipolati sono sessualmente espliciti.

Non lo fa neanche l’articolo introdotto nel 2019 (612-ter), che seppur formuli il reato di diffusione di immagini intime senza consenso, conosciuto con il termine inappropriato di revenge porn, non amplia il raggio d’azione a quelle manipolate con l’IA.  Come scrive Gian Marco Caletti, ricercatore in scienze giuridiche all’università di Bologna, questa esclusione “è apparsa fin da subito un aspetto critico, poiché nel 2019 era già ampiamente preventivabile l’affermarsi di questo uso distorto dell’intelligenza artificiale”.

La lacuna della legge del 2019 sembrava destinata a essere sanata grazie alla Direttiva europea sulla violenza di genere del 2024, che obbliga gli stati membri a punire le condotte consistenti nel “produrre, manipolare o alterare e successivamente rendere accessibile al pubblico” immagini, video o materiale analogo che faccia credere che una persona partecipi ad atti sessualmente espliciti senza il suo consenso.

Eppure, anche nell’articolo entrato in vigore in Italia lo scorso mese, il reato non viene letto attraverso la lente della violenza di genere: il testo mette potenzialmente insieme deepfake di politici creati, per esempio, per diffondere disinformazione in campagna elettorale e deepnude che presentano invece una matrice culturale ben precisa.

Se da un lato la legge presenta alcune lacune, è anche vero che la pronuncia del giudice è solo l’ultimo tassello di un iter che, nelle fasi precedenti, coinvolge molti più attori: dalle forze dell’ordine che ricevono la denuncia alle operatrici che lavorano nei centri anti-violenza.

La diffusione di image-based sexual abuse è un fenomeno che si muove sul piano culturale, sociale e tecnologico. E per questo motivo non può essere risolto solo con risposte legali. Il quadro normativo è fondamentale, anche allo scopo di criminalizzare la “produzione” di deepfake sessuali, ma non è sufficiente. Come si è visto già con l’introduzione della legge del 2019 sul revenge porn, questa non si è trasformata effettivamente in un deterrente alla condivisione di immagini esplicite non consensuali e, come riporta l’associazione Permesso Negato, la situazione è rimasta critica.

“Abbiamo bisogno di armonizzare gli strumenti a nostra disposizione: abbiamo una legge contro la condivisione di materiale non consensuale, di recente è stata introdotta quella contro i deepfake e dal 2024 c’è una direttiva europea sulla lotta contro la violenza di genere”, spiega ancora Bainotti. “Dobbiamo cercare di applicarle in modo che siano coerenti tra loro e messe a sistema. Nel caso italiano, credo che sia proprio questo il punto più carente, perché se abbiamo le leggi, ma allo stesso tempo abbiamo operatori di polizia o altri enti responsabili che non sono formati alla violenza di genere attraverso la tecnologia, la legge rimane fine a se stessa. Bisogna adottare un approccio sinergico, che metta insieme una chiara volontà politica, un’azione educatrice e una rivoluzione tecnologica”, conclude Bainotti.

Nuovi immaginari

Da alcuni anni, in Europa, stanno nascendo progetti non-profit che si occupano di tecnologia e spazi digitali da un punto di vista femminista. In Spagna, il collettivo FemBloc offre assistenza a donne e persone della comunità LGBTQ+ vittime di violenza online grazie al supporto interdisciplinare di esperti di sicurezza digitale, avvocati e psicologi. Tra le attività svolte c’è anche quella della formazione all’interno delle scuole contro la violenza di genere digitale, consulenze gratuite su come mettere in sicurezza i propri account e seminari aperti al pubblico.

Una realtà analoga è quella di Superrr, fondata in Germania nel 2019. Il loro lavoro – si legge sul sito – è quello di “assicurare che i nostri futuri digitali siano più giusti e più femministi. Tutte le persone dovrebbero beneficiare delle trasformazioni digitali preservando i propri diritti fondamentali”. 

In un momento storico in cui la connessione tra “broligarchi tech” e Donald Trump è più evidente che mai, dove i primi si recano alla Casa Bianca per portare regalie e placche d’oro in cambio di contratti federali, sembra quasi ineluttabile che lo spazio digitale sia stato conquistato da un certo tipo di mascolinità: aggressiva, prepotente, muscolare. Eppure, c’è chi vuole ancora tentare di colonizzare questi spazi con nuovi immaginari politici e un’altra concezione dei rapporti di potere nelle relazioni di genere.

L'articolo Perché è così difficile fermare i deepnude proviene da Guerre di Rete.

  •  

Apple, i dark pattern e la difficile battaglia contro il tracciamento

Nel 2021 Apple ha introdotto App Tracking Transparency (ATT), una funzionalità del sistema operativo iOS che permette agli utenti, che prima dovevano districarsi tra interfacce confusionarie, di impedire con un solo click qualunque tracciamento, evitando quindi che qualsiasi app presente sul loro smartphone possa raccogliere dati personali a fini pubblicitari senza il loro consenso esplicito.

La funzionalità introdotta in iOS, il sistema operativo di iPhone e iPad, fornisce un servizio che, nell’internet dominata dal capitalismo della sorveglianza, rende una gran fetta di utenti più protetti. E questo l’ha resa particolarmente apprezzata: si stima infatti che il 75% degli utenti iOS la utilizzi.

Eppure ATT, in Italia e in altri paesi europei, potrebbe avere vita breve: “In Apple crediamo che la privacy sia un diritto umano fondamentale e abbiamo creato la funzionalità di App Tracking Transparency per offrire agli utenti un modo semplice per controllare se le aziende possono tracciare le loro attività su altre app e siti web. Una funzionalità accolta con entusiasmo dai nostri clienti e apprezzata dai sostenitori della privacy e dalle autorità per la protezione dei dati in tutto il mondo”, si legge in un comunicato. “Non sorprende che l’industria del tracciamento continui a opporsi ai nostri sforzi per dare agli utenti il controllo sui propri dati”.

ATT rischia di sparire

Nonostante il favore degli utenti, ATT è infatti oggetto in Italia di un’indagine dell’Autorità Garante della Concorrenza e del Mercato, che secondo diversi osservatori arriva dopo una forte pressione da parte dell’industria pubblicitaria. Le aziende del settore sostengono che la funzione sia “abusiva” perché duplicherebbe i consensi già richiesti dal GDPR. Apple respinge l’accusa e afferma che la normativa europea dovrebbe essere un punto di partenza, non un limite, e che ATT offre un livello di controllo più chiaro e immediato.

La decisione dell’AGCM è attesa entro il 16 dicembre e rischia di privare i consumatori di un prodotto informatico, ATT, che non solo è più funzionale dei singoli banner, ma che si potrebbe definire “naturale”: nel momento in cui tutte le app hanno bisogno di una stessa funzione (in questo caso, richiedere il consenso degli utenti alla profilazione) è più logico integrarla nel sistema operativo e offrirla in un’unica versione standard. ATT fa proprio questo: porta la richiesta di consenso al tracciamento a livello di sistema.

Nonostante ogni utente abbia il diritto di prestare o negare il consenso all’utilizzo dei suoi dati personali per fornire pubblicità mirata o rivenderli ai cosiddetti data broker, la semplicità d’uso di ATT di Apple rappresenta la differenza tra un consenso spesso “estorto” da interfacce appositamente convolute e opache e un consenso informato, libero, revocabile.

In base al GDPR, il regolamento europeo sulla protezione dei dati, ogni applicazione può trattare i nostri dati personali solo se esiste una delle sei basi giuridiche previste dalla legge. Tra queste, il consenso è quello più comunemente utilizzato. Poiché permette di effettuare una scelta in modo chiaro e semplice, l’ATT ha rapidamente raccolto l’effettivo interesse degli utenti, mostrando in maniera coerente come si può ottenere ciò che i vari garanti europei hanno chiarito nel tempo, ovvero che “rifiutare dev’essere facile quanto accettare”.

La strategia di Apple

Ma Apple ha fatto un altro passo avanti: non ha offerto ATT ai programmatori di app, ma l’ha imposta. Ha reso questo consenso necessario, al pari di quello che deve chiedere un’app quando, per esempio, vuole accedere alla localizzazione o al microfono. È direttamente il sistema operativo, sia in iOS sia in Android, che permette di scegliere se fornire o meno, per esempio, l’accesso al microfono al videogioco che abbiamo appena scaricato. In questo modo, lo spazio di manovra per trarre l’utente in inganno si riduce molto: possiamo vedere in una volta sola quali sono le app che richiedono quel privilegio e revocarlo a tutte in ogni momento.

Immaginiamo gli esiti nefasti che si sarebbero verificati nel mercato mobile se ogni app avesse potuto accedere, tramite formula ambigue per il consenso, a periferiche come microfono, localizzazione, cartelle e rubrica. È proprio per evitare questa situazione che i programmatori dei sistemi operativi hanno dato il controllo agli utenti, limitando di conseguenza la presenza di spyware e profilazione invasiva.

La possibilità di bloccare facilmente l’accesso a periferiche così delicate, soprattutto quando scarichiamo app dalla reputazione dubbia, ci dà un senso di protezione. Perché con il tracciamento dovrebbe essere diverso? Siamo certi che fornire l’accesso al microfono permetta di ottenere dati molto più rilevanti di quelli che si possono avere tramite la profilazione? In realtà, il tracciamento e la cessione di informazioni ai data broker dovrebbero evocare la stessa percezione di rischio. E quindi essere soggette, come fa in effetti l’ATT, a un simile trattamento a livello di consenso.

La differenza tra tracciamento e accesso alle periferiche

Una periferica è una porzione del sistema operativo: un’app può accedervi soltanto se le è stato concesso questo privilegio, altrimenti non ha modo di farlo. La garanzia del controllo delle aree più delicate di un sistema operativo è un elemento fondamentale della sicurezza informatica.

Il blocco al tracciamento, invece, è un insieme di misure tecniche: impedisce il fingerprinting (una tecnica che permette di identificare in modo univoco un utente o un dispositivo) e l’accesso all’Identificatore Unico Pubblicitario (un codice anonimo assegnato dal sistema operativo a ciascun dispositivo mobile, che permette alle app di riconoscere l’utente a fini pubblicitari), oltre a  costringere lo sviluppatore a esplicitare gli obiettivi del trattamento dati, pena la rimozione dall’Apple Store. Non è impossibile aggirare questi divieti, ma una funzione come ATT, che permette di attivarli con un’unica scelta, lo rende molto più complesso.

I miliardi persi da Meta

Per capire la posta in gioco: Meta ha affermato che ATT sarebbe stato, nel solo 2022, responsabile di una perdita pari a 10 miliardi di dollari (circa l’8% del fatturato 2021), causando una caduta in borsa del 26%. Il Financial Times stimò invece che, nel solo secondo semestre 2021, l’ATT introdotto da Apple fosse la causa di 9,85 miliardi di inferiori ricavi complessivi per Snap (la società del social network Snapchat), Facebook, Twitter e YouTube, segnalando l’ampiezza dell’impatto sull’intero ecosistema pubblicitario.

Nel suo report del 2022, lo IAB (Interactive Advertising Bureau, un’associazione di categoria delle aziende pubblicitarie e della comunicazione) menziona già nell’introduzione come la colpa di queste perdite sia in primo luogo dell’ATT e in secondo luogo del regolamento della California sui dati personali. Questo aspetto ci aiuta a mappare il conflitto: i diritti e il consenso vengono considerato come degli avversari da questi soggetti, che – nel tentativo di recuperare i miliardi perduti – sono disposti a mettere in campo tutto il loro potere legale, fino ad arrivare a un’interpretazione del diritto che dovrebbe essere un caso di studio.

In Europa, la privacy sul banco dell’antitrust

In diverse nazioni europee, in seguito alle denunce di associazioni di categoria, sono infatti state intentate cause contro Apple per “abuso di posizione dominante”. Non è però chiaro dove sia il beneficio diretto di Apple,  visto che anche le sue applicazioni devono rispondere all’ATT e quindi anche Apple deve chiedere il consenso per servire pubblicità personalizzata. Apple potrebbe al massimo avere un beneficio indiretto, penalizzando i principali concorrenti – i cui introiti provengono dalla pubblicità – mentre si avvantaggia dalla vendita di dispositivi promossi come “privacy first”.

Una delle interpretazioni fornite dalle associazioni di categoria è che gli sviluppatori di applicazioni terze debbano essere in grado di usare il loro form per la richiesta del consenso. Questo, però, ci porta ad affrontare un problema noto: quello dei dark pattern o deceptive design (interfacce ingannevoli), ovvero strategie di design che spingono l’utente a compiere scelte non pienamente consapevoli, per esempio rendendo più complesso rifiutare il tracciamento o l’iscrizione a un servizio rispetto ad accettarlo.

Dark pattern: perché la forma decide il contenuto

Come scrive Caroline Sinders, “le politiche per regolamentare Internet devono fare i conti con il design”, perché interfacce e micro-scelte grafiche possono “manipolare invece che informare” e svuotare principi come il consenso: “I dark pattern sono scelte di design che confondono gli utenti o li spingono verso azioni che non desiderano davvero”. E fanno tutto ciò, tipicamente, rendendo molto facile dire di sì e invece complesso o ambiguo dire di no.

Non si tratta di astrazioni. Nel 2024, NOYB (il centro europeo per i diritti digitali) ha analizzato migliaia di banner di consenso in Europa, documentando schemi ricorrenti e misurabili: se il pulsante “rifiuta” non si trova nel primo livello del banner, solo il 2,18% degli utenti lo raggiunge. Non solo: rifiutare richiede in media il doppio dei passi rispetto ad accettare.

Tra le pratiche “dark pattern” più comuni troviamo inoltre: link ingannevoli per il rifiuto (inseriti nel corpo del testo mentre per accettare è presente un pulsante ben visibile), colori e contrasti che enfatizzano l’ok e sbiadiscono il no, caselle preselezionate, falso “legittimo interesse” (con cui un’azienda dichiara di poter trattare i dati senza esplicito consenso) e percorsi per la revoca più difficili del consenso.

Il Digital Services Act (DSA), in vigore dal 2022, ha portato nel diritto dell’UE il lessico dei dark pattern e ne vieta l’uso quando interfacce e scelte di design ingannano o manipolano gli utenti, aprendo la strada a linee guida e strumenti di attuazione dedicati. In concreto, il DSA prende di mira alcune pratiche precise, come la ripetizione delle richieste anche dopo che una scelta è già stata espressa. Nella tassonomia accademico-regolatoria più aggiornata, questo comportamento corrisponde al pattern “nagging”, cioè l’interruzione insistente che spinge l’utente verso un’azione indesiderata.

Un documento rivelatore, da questo punto di vista, è An Ontology of Dark Patterns, che fornisce strumenti utili a riconoscere dark pattern, dar loro un nome preciso e idealmente a poterli misurare, così da effettuare reclami dove possibile e magari riuscire, a colpi di sanzioni, a limitarli.

Nonostante il DSA sancisca a livello concettuale il divieto dei dark pattern, le autorità o i cittadini che volessero effettuare reclami dovrebbero poter misurare la difficoltà dell’interfaccia e rendere obiettivo il giudizio. Questa è la parte più difficile: da un lato non puoi distinguere un dark pattern dal cattivo design; dall’altro, le piattaforme più grandi (definite dalla UE “gatekeeper”) sono diventate tali anche per la cura maniacale nei confronti del design delle loro interfacce, ottimizzando il percorso per loro più profittevole e disincentivando tutti gli altri.

Qui sta la difficoltà: non si può giudicare un dark pattern solo dal principio, bisogna invece misurare l’esperienza. In pratica, i pattern si vedono quando: rifiutare richiede più passaggi di accettare (asimmetria di percorso); il “no” è meno evidente del “sì” (asimmetria visiva: posizione, dimensione, contrasto); l’utente viene interrotto finché non cede (nagging); ci sono oneri informativi inutili prima di arrivare alla scelta (ostruzione); esistono impostazioni preselezionate o categorie opache (sneaking).

Per questo le standardizzazioni di piattaforma come ATT sono preziose: trasformano il consenso in un gesto coerente nel tempo, riducendo la superficie di manipolazione creativa e permettendo sia agli utenti di imparare rapidamente dove e come decidere, sia ai regolatori/ricercatori di misurare con metriche stabili (passaggi, tempi, posizionamenti). È lo stesso vantaggio che abbiamo quando il sistema operativo gestisce i permessi di fotocamera o microfono: l’utente riconosce il messaggio proveniente dal sistema operativo, sa come revocare il consenso e chi prova a barare salta subito all’occhio.

Infine, il nodo culturale: consenso informato e scelta informata richiedono una certa educazione dell’utente. Il regolatore spesso la dà per scontata mentre, al contrario, i team tecnici delle piattaforme investono nel scovare le vulnerabilità degli utenti, sfruttando posizionamento, ritardi, colori, tempi, percorsi. Per questo l’uniformità del punto in cui bisogna effettuare la decisione (uno strato di sistema, uguale per tutti) dovrebbe essere favorita: abbassa la complessità per gli utenti e rende l’enforcement verificabile.

Oggi, però, la regolazione resta quasi sempre a livello alto (principi, divieti) e raramente scende a specifiche vincolanti sulla user interface. Il risultato è che l’onere di provare la manipolazione ricade su autorità e cittadini, caso per caso; mentre chi progetta interfacce approfitta della grande varietà di soluzioni “creative”. ATT mostra che spostare la scelta verso il basso, all’interno del sistema, abilita gli utenti a esprimere le loro volontà e a vederle rispettate.

Il limitato intervento del Garante

Immaginiamo che l’Autorità Garante della Concorrenza e del Mercato (AGCM) ponga all’autorità che si occupa di protezione dei dati una domanda di questo tipo: “ATT è necessario per adempire al GDPR?”. Quest’ultimo probabilmente risponderebbe negativamente, perché in punta di diritto non lo è. Forse è un peccato, perché se la domanda invece fosse: “ATT è una soluzione migliore per catturare il consenso rispetto ai banner sviluppati da terze parti?”, la risposta sarebbe molto probabilmente differente. Al di là degli scenari teorici, che mostrano però come basti cambiare il punto di vista per cambiare anche il risultato, l’impressione è che AGCM abbia la possibilità di rimuovere ATT e che il garante della Privacy non abbia strumenti per intervenire.

La situazione non sembra quindi rosea per ATT in attesa della decisione del 16 dicembre, visto che in Francia l’Autorità competente ha già inflitto a Apple 150 milioni di euro, ritenendo sproporzionato il sistema rispetto all’obiettivo dichiarato e penalizzante per editori più piccoli (Apple ha invece nuovamente difeso ATT come una scelta a favore degli utenti).

Ed è qui che la notizia si intreccia con i dark pattern: per alleggerire le restrizioni di ATT, l’industria pubblicitaria spinge perché siano le singole app e non il sistema a mostrare i propri moduli di consenso. Ma quando scompare il “freno di piattaforma”, gli stessi moduli spesso deviano la scelta.

Antitrust contro privacy

EPIC (Electronic Privacy Information Center) ha messo in guardia proprio su questo punto: con la scusa della concorrenza si rischiano di abbassare le barriere al tracciamento, limitando le tutele. Le minacce per la sicurezza relative alle periferiche e di cui abbiamo parlato, per esempio, non sono sempre state bloccate. Le tutele sono cresciute gradualmente. Da questo punto di vista, il caso di Apple fa riflettere su due aspetti.

Il primo è che se i diritti non sono riconosciuti a norma di legge, non sono realmente ottenuti. Per esempio: una VPN potrà darci un vantaggio, un sistema operativo potrà darci una funzione come l’ATT, una corporation come WhatsApp potrà avvisarci di essere soggetti ad attacchi da parte di attori statali, ma questi sono da viversi come “regali temporanei”. Ci vengono fatti perché la percezione di sicurezza degli utenti conta di più della loro effettiva inattaccabilità.

Chissà cosa succederebbe se l’antitrust sancisse che gli sviluppatori di terze parti possono avere la libertà di accedere anche alle periferiche del sistema, senza subire i vincoli del sistema operativo. Sarebbe naturalmente un disastro, ma quantomeno solleverebbe pressioni, perplessità, critiche. Invece, relegare questa scelta a una lotta tra corporation rischia di non rendere giustizia alle vittime di tutto questo: gli utenti.

Grande assente nelle carte è infatti una domanda: che cosa vogliono le persone? Come detto, al netto delle dispute tra piattaforme e ad-tech, ATT piace agli utenti iOS e una larga maggioranza di utenti Android ha detto di volere “qualcosa di simile” sui propri telefoni. Un maxi-sondaggio svolto da Android Authority con oltre 35 mila voti (per quanto privo di valore statistico) ha concluso che “la stragrande maggioranza vuole anche su Android una funzione anti-tracking come quella di Apple”. Ma questo in fondo già lo sapevamo, ognuno di noi,  quando messo davvero di fronte a una scelta chiara, tende a dire di no al tracciamento. Usare l’antitrust per rimuovere ATT non darebbe più libertà agli sviluppatori, ma solo più libertà d’azione ai dark pattern.

L'articolo Apple, i dark pattern e la difficile battaglia contro il tracciamento proviene da Guerre di Rete.

  •  

Enshittification: il progressivo degrado delle piattaforme digitali

Immagine in evidenza: rielaborazione della copertina di Enshittification di Cory Doctorow

Da alcuni anni conosciamo il cosiddetto “capitalismo della sorveglianza”: un modello economico basato sull’estrazione, controllo e vendita dei dati personali raccolti sulle piattaforme tecnologiche. Lo ha teorizzato Shoshana Zuboff nel 2019 in un libro necessario per comprendere come Meta, Amazon, Google, Apple e gli altri colossi tech abbiano costruito un potere senza precedenti, capace di influenzare non solo il mercato e i comportamenti degli utenti, ma anche, tramite il lobbying, le azioni dei decisori pubblici di tutto il mondo.

L’idea che queste grandi piattaforme abbiano sviluppato una sorta di potere sulle persone tramite la sorveglianza commerciale, com’è stata teorizzata da Zuboff, è però un mito che è il momento di sfatare. Così almeno la pensa Cory Doctorow, giornalista e scrittore canadese che negli ultimi anni ha pubblicato due libri particolarmente illuminanti sul tema. 

In “Come distruggere il capitalismo della sorveglianza”, uscito nel 2024 ed edito da Mimesis, Doctorow spiega come molti critici abbiano ceduto a quella che il professore del College of Liberal Arts and Human Science Lee Vinsel ha definito “criti-hype”: l’abitudine di criticare le affermazioni degli avversari senza prima verificarne la veridicità, contribuendo così involontariamente a confermare la loro stessa narrazione. In questo caso, in soldoni, il mito da contestare è proprio quello di poter “controllare” le persone per vendergli pubblicità. 

“Penso che l’ipotesi del capitalismo della sorveglianza sia profondamente sbagliata, perché rigetta il fatto che le aziende ci controllino attraverso il monopolio, e non attraverso la mente”, spiega Doctorow a Guerre di Rete. Il giornalista fa l’esempio di uno dei più famosi CEO delle Big Tech, Mark Zuckerberg: “A maggio, Zuckerberg ha rivelato agli investitori che intende recuperare le decine di miliardi che sta spendendo nell’AI usandola per creare pubblicità in grado di aggirare le nostre capacità critiche, e quindi convincere chiunque ad acquistare qualsiasi cosa. Una sorta di controllo mentale basato sull’AI e affittato agli inserzionisti”. 

Effettivamente, viste le perdite che caratterizzano il settore dell’intelligenza artificiale – e nel caso di Meta visto anche il fallimento di quel progetto chiamato metaverso, ormai così lontano da non essere più ricordato da nessuno – è notevole che Zuckerberg sia ancora in grado di ispirare fiducia negli investitori. E di vendergli l’idea di essere un mago che, con cappello in testa e bacchetta magica in mano, è in grado di ipnotizzarci tutti. “Né Rasputin [il mistico russo, cui erano attribuito poteri persuasivi, ndr] né il progetto MK-Ultra [un progetto della CIA per manipolare gli stati mentali negli interrogatori, ndr] hanno mai veramente perfezionato il potere mentale, erano dei bugiardi che mentivano a sé stessi o agli altri. O entrambe le cose”, dice Doctorow. “D’altronde, ogni venditore di tecnologia pubblicitaria che incontri un dirigente pubblicitario sfonda una porta aperta: gli inserzionisti vogliono disperatamente credere che tu possa controllare la mente delle persone”. 

Il caro vecchio monopolio

Alla radice delle azioni predatorie delle grandi piattaforme, però, non ci sarebbe il controllo mentale, bensì le pratiche monopolistiche, combinate con la riduzione della qualità dei servizi per i miliardi di utenti che li usano. Quest’ultimo è il concetto di enshittification, coniato dallo stesso Doctorow e che dà il nome al suo saggio appena uscito negli Stati Uniti. Un processo che vede le piattaforme digitali, che inizialmente offrono un servizio di ottimo livello, peggiorare gradualmente per diventare, alla fine, una schifezza (la traduzione di shit è escremento, per usare un eufemismo).

“All’inizio la piattaforma è vantaggiosa per i suoi utenti finali, ma allo stesso tempo trova il modo di vincolarli”, spiega il giornalista facendo l’esempio di Google, anche se il processo di cui parla si riferisce a quasi tutte le grandi piattaforme. Il motore di ricerca ha inizialmente ridotto al minimo la pubblicità e investito in ingegneria per offrire risultati di altissima qualità. Poi ha iniziato a “comprarsi la strada verso il predominio” –sostiene Doctorow – grazie ad accordi che hanno imposto la sua casella di ricerca in ogni servizio o prodotto possibile. “In questo modo, a prescindere dal browser, dal sistema operativo o dall’operatore telefonico utilizzato, le persone finivano per avere sempre Google come impostazione predefinita”.

Una strategia con cui, secondo Doctorow, l’azienda di Mountain View ha acquisito qua e là società di grandi dimensioni per assicurarsi che nessuno avesse un motore di ricerca che non fosse il suo. Per Doctorow è la fase uno: offrire vantaggi agli utenti, ma legandoli in modo quasi invisibile al proprio ecosistema.

Un’idea di quale sia il passaggio successivo l’abbiamo avuta assistendo proprio a ciò che è successo, non troppo tempo fa, al motore di ricerca stesso: “Le cose peggiorano perché la piattaforma comincia a sfruttare gli utenti finali per attrarre e arricchire i clienti aziendali, che per Google sono inserzionisti ed editori web. Una porzione sempre maggiore di una pagina dei risultati del motore di ricerca è dedicata agli annunci, contrassegnati con etichette sempre più sottili, piccole e grigie. Così Google utilizza i suo i dati di sorveglianza commerciale per indirizzare gli annunci”, spiega Doctorow. 

Nel momento in cui anche i clienti aziendali rimangono intrappolati nella piattaforma, come prima lo erano stati gli utenti, la loro dipendenza da Google è talmente elevata che abbandonarla diventa un rischio esistenziale. “Si parla molto del potere monopolistico di Google, che deriva dalla sua posizione dominante come venditore. Penso però che sia più correttamente un monopsonio”.

Monopoli e monopsoni

“In senso stretto e tecnico, un monopolio è un mercato con un unico venditore e un monopsonio è un mercato con un unico acquirente”, spiega nel suo libro Doctorow. “Ma nel linguaggio colloquiale dell’economia e dell’antitrust, monopolista e monopsonista si riferiscono ad aziende con potere di mercato, principalmente il potere di fissare i prezzi. Formalmente, i monopolisti di oggi sono in realtà oligopolisti e i nostri monopsonisti sono oligopsonisti (cioè membri di un cartello che condividono il potere di mercato)”.

E ancora scrive: “Le piattaforme aspirano sia al monopolio che al monopsonio. Dopo tutto, le piattaforme sono ”mercati bilaterali” che fungono da intermediari tra acquirenti e venditori. Inoltre, la teoria antitrust basata sul benessere dei consumatori è molto più tollerante nei confronti dei comportamenti monopsonistici, in cui i costi vengono ridotti sfruttando lavoratori e fornitori, rispetto ai comportamenti monopolistici, in cui i prezzi vengono aumentati. In linea di massima, quando le aziende utilizzano il loro potere di mercato per abbassare i prezzi, possono farlo senza temere ritorsioni normative. Pertanto, le piattaforme preferiscono spremere i propri clienti commerciali e aumentano i prezzi solo quando sono diventate davvero troppo grandi per essere perseguite”.

Così facendo, l’evoluzione del motore di ricerca si è bloccata e il servizio ha poi iniziato a peggiorare, sostiene l’autore. “A un certo punto, nel 2019, più del 90% delle persone usava Google per cercare tutto. Nessun utente poteva più diventare un nuovo utente dell’azienda e quindi non avevano più un modo facile per crescere. Di conseguenza hanno ridotto la precisione delle risposte, costringendo gli utenti a cercare due o più volte prima di ottenerne una decente, raddoppiando il numero di query e di annunci”.

A rendere nota questa decisione aziendale è stata, lo scorso anno, la pubblicazione di alcuni documenti interni durante un processo in cui Google era imputata. Sui banchi di un tribunale della Virginia una giudice ha stabilito che l’azienda creata da Larry Page e Sergey Brin ha abusato di alcune parti della sua tecnologia pubblicitaria per dominare il mercato degli annunci, una delle sue principali fonti di guadagno (nel 2024, più di 30 miliardi di dollari a livello mondiale).

“E così arriviamo al Google incasinato di oggi, dove ogni query restituisce un cumulo di spazzatura di intelligenza artificiale, cinque risultati a pagamento taggati con la parola ‘ad’ (pubblicità) in un carattere minuscolo e grigio su sfondo bianco. Che a loro volta sono link di spam che rimandano ad altra spazzatura SEO”, aggiunge Doctorow facendo riferimento a quei contenuti creati a misura di motore di ricerca e privi in realtà di qualunque valore informativo. Eppure, nonostante tutte queste criticità, continuiamo a usare un motore di ricerca del genere perché siamo intrappolati nei suoi meccanismi.

Il quadro non è dei migliori. “Una montagna di shit”, le cui radici  – afferma lo studioso – vanno cercate nella distruzione di quei meccanismi di disciplina che una volta esistevano nel capitalismo. Ma quali sarebbero questi lacci che tenevano a bada le grandi aziende? La concorrenza di mercato – ormai eliminata dalle politiche che negli ultimi 40 anni hanno favorito i monopoli; una regolamentazione efficace – mentre oggi ci ritroviamo con leggi e norme inadeguate o dannose, come ad esempio la restrizione dei meccanismi di interoperabilità indotta dall’introduzione di leggi sul copyright; e infine il potere dei lavoratori – anche questo in caduta libera a seguito dell’ondata di licenziamenti nel settore tecnologico.

La “enshittification“, secondo Doctorow, è un destino che dovevamo veder arrivare, soprattutto perché giunge a valle di scelte politiche precise: “Non sono le scelte di consumo, ma quelle politiche a creare mostri come i CEO delle Big Tech, in grado di distruggere le nostre vite online perché portatori di pratiche commerciali predatorie, ingannevoli, sleali”.

Non basta insomma odiare i giocatori e il gioco, bisogna anche ricordare che degli arbitri disonesti hanno truccato la partita, convincendo i governi di tutto il mondo ad abbracciare specifiche politiche.
Quando si parla di tecnologia e delle sue implicazioni a breve, medio e lungo periodo è difficile abbracciare una visione possibilista e positiva. Un po’ come succede per le lotte per la giustizia sociale e per il clima: il muro che ci si ritrova davanti sembra invalicabile. Una grossa difficoltà che, secondo Doctorow, è data dalla presenza di monopoli e monopsoni. 

Ma la reazione alle attuali crisi politiche globali mostra che un cambiamento è possibile. “Negli ultimi anni c’è stata un’azione di regolamentazione della tecnologia superiore a quella dei 40 anni precedenti”, spiega Doctorow. Non solo: la seconda elezione di Donald Trump si starebbe rivelando una benedizione sotto mentite spoglie, sia per il clima sia per il digitale. “Ha acceso un fuoco sotto i leader di altri Paesi ex alleati, stimolando grandi e ambiziosi programmi per sfuggire al monopolio statunitense. Pensiamo ai dazi sui pannelli solari cinesi imposti da Trump nella prima amministrazione, per esempio. Una misura che ha spinto i produttori di Pechino a inondare i paesi del Sud del mondo con i loro pannelli economici, a tal punto che intere regioni si sono convertite all’energia solare”, afferma Doctorow, che considera questa strada percorribile anche per ottenere una tecnologia più libera.

Per non vedere tutto nero

Sfuggire alle Big Tech americane non dovrebbe significare semplicemente  rifugiarsi in un servizio alternativo (mail, cloud, social media, ecc.), anche perché il processo non è così semplice. “Non si copia e incolla la vita delle persone: le email, i file, i documenti custoditi nei cloud di Microsoft, Apple o Google. Nessun ministero, azienda o individuo lo farà”. Motivo per cui, secondo Doctorow, Eurostack è una possibile alternativa, ma che ha ancora tanta strada da fare.

Eurostack è un’iniziativa europea nata recentemente in risposta all’esigenza di costruire una sovranità digitale del Vecchio continente, indipendente dalle aziende tecnologiche straniere (specialmente USA). Coinvolge attivisti digitali, comunità open source, istituzioni europee e alcuni politici. “L’Ue potrebbe ordinare alle grandi aziende tech statunitensi di creare strumenti di esportazione, così che gli europei possano trasferire facilmente i propri dati in Eurostack, ma possiamo già immaginare come andrà a finire. Quando l’Ue ha approvato il Digital Markets Act, Apple ha minacciato di smettere di vendere iPhone in Europa, e ha presentato 18 ricorsi legali”, ricorda Doctorow. 

Se la risposta di un’azienda statunitense all’introduzione di una direttiva europea è questa, la soluzione allora non può essere che radicale. “L’unica via possibile è abrogare l’articolo 6 della direttiva sul diritto d’autore: l’Ue dovrebbe rendere legale il reverse engineering di siti web e app statunitensi in modo che gli europei possano estrarre i propri dati e trasferirli in Eurostack. Un modello aperto, sovrano, rispettoso della privacy, dei diritti dei lavoratori e dei consumatori”.

L'articolo Enshittification: il progressivo degrado delle piattaforme digitali proviene da Guerre di Rete.

  •  

Quanto e come usiamo davvero l’intelligenza artificiale?

L’Italia è ha introdotto, lo scorso 17 settembre 2025, una legge che punta a normare l’utilizzo di strumenti di intelligenza artificiale. Il provvedimento recepisce (almeno in parte) l’AI Act europeo, introducendo anche una serie di regole e reati penali connessi all’uso dell’AI.

Ma qual è la situazione in Italia per quanto riguarda l’uso di strumenti di intelligenza artificiale? A prima vista, il nostro paese sconta un ritardo simile a quello, più volte denunciato, relativo a una generale carenza di competenze digitali. Analizzando i dati disponibili, emergono però alcuni elementi che chiariscono meglio le specifiche problematicità, accanto a considerazioni importanti riguardo il prossimo futuro.

Quale intelligenza artificiale?

Quando ci si avventura in un’analisi sull’utilizzo dell’intelligenza artificiale, la maggior parte dei dati disponibili sono di carattere statistico e devono essere presi con le pinze. Numeri e percentuali, infatti, rischiano di essere fuorvianti. 

Il primo aspetto su cui soffermarsi è l’oggetto stesso di cui si tratta. Nonostante l’opinione pubblica parli ormai di “intelligenza artificiale” con riferimento solo all’AI generativa e ai modelli linguistici (large language model), la sua definizione è in realtà molto più articolata.

La stessa legge italiana adotta l’ampia definizione utilizzata nell’AI Act: “Un sistema automatizzato progettato per funzionare con livelli di autonomia variabili (…) e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Non solo, quindi, i vari ChatGPT, Gemini, Claude e soci. Quando si parla di AI ci si riferisce in realtà a una molteplicità di sistemi e funzioni, molti dei quali rimangono dietro le quinte e dei quali, nella maggior parte dei casi, gli stessi utilizzatori di software e piattaforme ignorano l’esistenza.

I chatbot di largo consumo nel nostro paese

I sistemi di GenAI per cui è più facile reperire dati oggettivi sono proprio i chatbot che hanno preso il centro del palcoscenico negli ultimi 36 mesi. I dati riportati dalla piattaforma di analisi AI Tools, aggiornati allo scorso agosto, riportano una classifica che mostra la distribuzione geografica degli accessi via web ai servizi di AI.

Alla testa di questa particolare classifica (basata su numeri assoluti) svettano gli Stati Uniti con oltre 2 miliardi di accessi, mentre l’Italia si posiziona al 17esimo posto dietro a paesi come Messico, Filippine, Indonesia e Vietnam. Questi dati, però, sono falsati dalle differenze a livello di popolazione: se si introduce questo elemento nell’equazione, i dati consentono una lettura più veritiera. 

Se ci limitiamo a confrontare il numero di accessi con paesi “simili”, emerge come AI Tools abbia registrato in Italia 3.25 accessi per abitante, poco più della metà (5,76) rispetto agli Stati Uniti e con un valore di poco inferiore a Germania (4,57) e Francia (3,85).

Limitando l’analisi a ChatGPT, che nel settore dell’AI generativa detiene più dell’80% del mercato, i dati sono piuttosto simili. Stando a quanto riporta Digital Gravity, gli accessi provenienti dall’Italia al chatbot di OpenAI si collocano allo stesso livello di un paese come la Germania e di poco inferiori a Spagna e Francia.

“I dati sono sempre utili, ma rischiano di creare degli equivoci pericolosi”, sottolinea Irene Di Deo, ricercatrice senior dell’Osservatorio Artificial Intelligence al Politecnico di Milano. “Quando si parla di utilizzo di AI generativa facendo riferimento ai prodotti accessibili sul web, spesso si tratta di un uso che ha un fine ludico o personale. Per comprendere il livello di utilizzo in ambito produttivo è indispensabile fare riferimento ad altri indici, come le licenze acquistate dalle imprese”.

L’AI nel settore produttivo

Se si passa a un uso più “aziendale” dell’intelligenza artificiale, i dati disponibili sono meno oggettivi rispetto a quelli relativi al numero di accessi agli strumenti di AI liberamente  disponibili su Internet. La maggior parte di questi dati si basa su indagini eseguite in ambito accademico o a opera di istituzioni internazionali. Una delle analisi più affidabili, pubblicata da Eurostat, segna un generale ritardo dell’Italia rispetto agli altri paesi europei.

I dati relativi al Digital Intensity Level – indice che valuta quanto intensamente un’azienda utilizza un insieme di tecnologie digitali chiave nella propria attività – sono tutto sommato nella media. Tra i 27 paesi UE, l’Italia si posiziona infatti al sedicesimo posto. Quando si parla di AI, le cose però vanno decisamente peggio.

In questa specifica classifica, l’Italia è ventiduesima e staccata notevolmente dai migliori. Solo l’8% delle aziende italiane utilizzerebbero strumenti basati sull’AI, contro il 27,6% di quelle danesi e una media UE del 13,5%. “Si tratta di un dato che va letto alla luce del tipo di tessuto produttivo che c’è nel nostro paese”, spiega Di Deo. “La prevalenza di piccole e medie imprese incide notevolmente sul dato statistico”. 

Quando si parla di utilizzo dell’AI in ambito produttivo, specifica la ricercatrice, nella maggior parte dei casi sono strumenti con finalità molto specifiche, ben diversi dai chatbot che vengono proposti al grande pubblico. “Si tratta di piattaforme che richiedono investimenti a livello finanziario piuttosto rilevanti, che le PMI spesso non possono permettersi”, prosegue. “A livello di grandi aziende, i dati che abbiamo raccolto in questi anni indicano che almeno il 60% delle imprese ha implementato strumenti basati sull’AI o ha avviato almeno una sperimentazione”. 

Di Deo sottolinea anche un altro aspetto: per sfruttare l’AI è indispensabile avere delle basi solide a livello di dati. Non si tratta dei famosi dataset necessari per addestrare gli algoritmi, ma di quelle informazioni che poi verranno elaborate dall’intelligenza artificiale per generare valore per l’impresa. “L’uso dell’AI per finalità come la manutenzione predittiva o il controllo qualità dei prodotti richiede la presenza di una serie storica. Chi non ha raccolto dati sulla sua attività negli ultimi 20 anni potrà difficilmente ottenere dei buoni risultati in questi ambiti”.

Il fenomeno della Shadow AI

A complicare ulteriormente il quadro è la difficoltà di monitorare l’uso “autonomo” di strumenti di AI generativa da parte dei lavoratori. La disponibilità di chatbot gratuiti o comunque accessibili commercialmente per uso privato ha innescato il fenomeno della cosiddetta “Shadow AI”, cioè l’uso non documentato (e incontrollato) di strumenti di intelligenza artificiale da parte di singoli individui. 

Oltre a essere un elemento distorsivo a livello statistico, la Shadow AI rappresenta un’area grigia che è fonte di preoccupazione per gli addetti ai lavori. Le ragioni sono molteplici e comprendono, per esempio, i rischi legati alla cyber security. Gli strumenti basati su AI generativa aumentano infatti il rischio di diffusione involontaria di informazioni riservate e soffrono di vulnerabilità specifiche che possono essere mitigate solo attraverso l’adozione di rigorose politiche di utilizzo e l’implementazione di strumenti dedicati. 

Ancora: con l’approvazione dell’AI Act (e in Italia della recente normativa nazionale) emerge anche il tema del rispetto degli obblighi giuridici legati all’uso dell’intelligenza artificiale. Tra questi c’è l’obbligo di informare i clienti quando si impiegano strumenti di AI nello svolgimento della propria attività professionale, come previsto dall’articolo 13 della legge italiana.

Quale impatto ha davvero l’AI?

Se oggi il livello di implementazione dell’AI viene considerato come un indicatore di evoluzione tecnologica, è probabile che questa equivalenza evapori piuttosto rapidamente, soprattutto a livello statistico. Gli LLM, in diverse forme, vengono ormai integrati in qualsiasi software. Non c’è prodotto commerciale che non offra un “assistente” alimentato dalla GenAI, la cui utilità è spesso relativa.

Anche dove l’AI è stata considerata una priorità su cui puntare, sono emersi grossi dubbi sul suo reale impatto. Una ricerca del MIT Media Lab, pubblicata quest’anno, sottolinea come il 95% delle imprese che hanno introdotto strumenti di intelligenza artificiale generativa non sia stato in grado di individuare un effettivo impatto a livello di valore. 

I ricercatori, nel report, sottolineano come l’AI sia utilizzata principalmente per migliorare la produttività individuale attraverso l’uso dei vari “co-piloti”. In tutti questi casi, non si va oltre la generazione di documenti, email, riassunti di riunioni e simili. 

Nulla di sconvolgente, quindi, soprattutto se si considera che, a questo livello di adozione, si rischia anche di cadere nel fenomeno del “workslop”, neologismo traducibile più o meno come “lavoro fatto in fretta e male”. Tradotto nella pratica, è possibile definirlo come un aumento di produttività a livello quantitativo, ma che lascia spesso a desiderare sul piano qualitativo. 

Chi si ritrova a valutare i contenuti creati con l’AI deve spesso scegliere se accontentarsi di un prodotto mediocre, riscrivere tutto da capo in prima persona o chiedere all’autore di rifarlo da zero. Un ulteriore elemento di complessità che interseca, più che aspetti squisitamente tecnologici, una dimensione culturale. E sarà proprio su questo piano, probabilmente, che si giocherà il futuro dell’AI come possibile “motore” dell’ innovazione.

L'articolo Quanto e come usiamo davvero l’intelligenza artificiale? proviene da Guerre di Rete.

  •  

I droni stanno trasformando la medicina di guerra

Immagine in evidenza da Marek Studzinski su Unsplash

C’è un aspetto dell’esperienza del combattimento bellico che, durante l’invasione dell’Ucraina, è andato via via riducendosi: le ferite d’arma da fuoco. Quella che a lungo è stata la principale causa di morte per i soldati impiegati in guerra ha lasciato spazio a un altro genere di lesione, oggi dominante: le ferite da schegge e frammenti.

A determinare questo cambiamento è stata la novità tecnologica più rilevante emersa dal conflitto: il massiccio impiego di droni aerei, e in particolare la diffusione degli apparecchi FPV (first-person view: visione in soggettiva). Per la loro natura di armi di precisione di massa, questi sistemi stanno cambiando profondamente il soccorso e il trattamento dei traumi da guerra.

Come i droni hanno cambiato la fanteria

In un video pubblicato sul suo canale YouTube, Civ Div – un blogger militare statunitense con un passato nel corpo dei marine degli Stati Uniti ed esperienza di combattimento in Siria e Ucraina (con le forze speciali) – descrive la realtà vissuta dalla fanteria moderna come un incubo tattico, di cui i droni sono la causa principale.

Per un fante impiegato in prima linea, la presenza continua di questi dispositivi altera radicalmente la percezione dello spazio. Per lungo tempo, infatti, la fanteria ha operato in ambienti essenzialmente “bidimensionali”: trincee, tunnel, edifici, campi aperti. Qui il contatto col nemico avveniva lungo vettori orizzontali: di fronte, di lato o alle spalle.

I droni hanno introdotto una terza dimensione: oggi il pericolo può arrivare dall’alto e in qualsiasi momento. Questa possibilità genera un ulteriore carico cognitivo e costringe le forze armate di tutto il mondo ad adattarsi e rivedere l’addestramento, le tattiche e le dotazioni della fanteria.

Per rispondere a questa minaccia, gli eserciti hanno iniziato ad adottare diverse misure: sistemi elettronici portatili in grado di disturbare i segnali dei droni, difese a basso costo come reti, gabbie e coperture o altre contromisure fisiche. In alcuni contesti, sono anche impiegate armi leggere tradizionalmente non impiegate dalla fanteria, come i fucili a pompa: poco efficace negli scontri a fuoco contro avversari protetti da armature, questo tipo di arma si è rivelato più efficace di un fucile d’assalto per abbattere un drone in avvicinamento.

Aggiungere equipaggiamento difensivo significa però aumentare il peso da trasportare, riducendo la mobilità dei fanti sia in azione sia durante le rotazioni. Un paradosso tattico che altera la routine del combattimento.

La conseguenza immediata è che la maggior parte delle unità passa più tempo nascosta in rifugi sotterranei: buche, bunker e trincee coperte diventano infatti la protezione più efficace contro droni dotati di visori termici e della capacità di operare anche di notte, rendendo inefficaci i camuffamenti tradizionali come le tute o le reti mimetiche.

Più che una semplice innovazione, la comparsa e la diffusione di questo genere di dispositivi ha assunto i tratti di una vera e propria rivoluzione, il cui effetto non è stato limitato al modo di combattere della fanteria, ma ha avuto importanti ripercussioni anche sulla cosiddetta medicina tattica.

Che cos’è la medicina tattica?

Con il termine “medicina tattica” si indica l’assistenza medica fornita d’urgenza in contesti ostili e a rischio, come quelli militari o di polizia. Il suo obiettivo è salvare vite in situazioni di minaccia; compito che svolge basandosi su due principi chiave. Il primo è la golden hour, il periodo critico che segue il trauma e in cui un intervento tempestivo aumenta in modo significativo la probabilità di sopravvivenza dei feriti. Rapidità, coordinamento, cura sul campo ed evacuazione ne sono le leve fondamentali. Il secondo è il Tactical Combat Casualty Care (TCCC), un protocollo creato negli anni ’80 dall’esercito degli Stati Uniti per addestrare medici e paramedici a prestare soccorso sotto il fuoco nemico.

Organizzato in tre fasi – care under fire (soccorso durante l’azione), tactical field care (stabilizzazione del ferito), tactical evacuation care (assistenza durante l’evacuazione) – il protocollo TCCC comprende diverse azioni specifiche come il controllo delle emorragie, la gestione delle vie aeree e la decompressione del torace.

Fin dalla sua introduzione, il protocollo TCCC ha ridotto la mortalità. La comparsa dei droni ne sta però mettendo in discussione uno dei presupposti di base: l’esistenza di retrovie relativamente sicure e percorribili in tempi rapidi.

Come i droni hanno cancellato le retrovie sui campi di battaglia ucraini

Alla fine di agosto, sull’onda lunga del summit tra Trump e Putin avvenuto a ferragosto in Alaska, il presidente ucraino Zelensky ha respinto la proposta di istituire una “zona cuscinetto” tra il suo paese e la Russia, avanzata da alcuni leader europei come parte di un potenziale accordo di pace tra i due governi.

Secondo Zelensky, lungo la linea del fronte esiste già una zona cuscinetto che, di fatto, separa le forze armate del suo paese da quelle del paese invasore. A crearla sono stati i droni, ed è per questo motivo che il presidente ucraino la definisce “zona morta”. Tutto ciò che si muove al suo interno diventa un potenziale bersaglio per le centinaia di droni che la sorvegliano costantemente e il cui raggio d’azione è notevolmente aumentato nel corso del conflitto.

Limitato inizialmente a pochi chilometri di distanza, il raggio d’azione dei droni raggiunge oggi una media compresa tra 10 e 15 chilometri per i modelli controllati a distanza e una compresa tra 20 e 40 chilometri per quelli comandati attraverso bobine di cavi in fibra ottica.

Grazie all’estensione del loro raggio d’azione, i droni hanno aumentato la profondità della linea del fronte che, fino alla loro introduzione, era determinata dalla gittata delle artiglierie da campo come mortai, obici ed MLRS (Multiple Rocket Launch System, o sistemi lanciarazzi multipli, come i famosi HIMARS). La loro comparsa ha dunque cancellato le retrovie e trasformato in bersaglio tutto ciò che si muove da e verso la linea del fronte, ridisegnandone la logistica. 

Quando l’artiglieria dominava il campo di battaglia, colpire un bersaglio in movimento significava prima di tutto individuarlo, poi calcolare le coordinate del tiro e, infine, eseguirlo con il corretto tempismo. Oggi, invece, i droni sono sempre in volo per sorvegliare gli spostamenti di personale e veicoli nemici, ma possono anche essere lasciati in stand by nei pressi di una via di rifornimento per essere attivati e colpirli al loro passaggio.

Come la medicina tattica si adatta alla presenza dei droni.

La scomparsa delle retrovie non solo obbliga le forze armate a modificare il modo di combattere, ma anche le modalità con cui vengono rifornite le posizioni più avanzate, ruotate le truppe o evacuati i feriti. Il trasporto dei feriti verso zone sicure, parte integrante del già citato TCCC, ora richiede più tempo e più adempimenti operativi, perché il percorso verso le retrovie si è allungato, trasformando in potenziale bersaglio chiunque abbia la necessità di attraversarlo.

In una testimonianza rilasciata al giornalista David Kirichenko, il colonnello Kostiantyn Humeniuk, chirurgo capo delle forze mediche ucraine, afferma che, in questo contesto, sono proprio i droni a causare il maggior numero di vittime nella fanteria (circa il 70% del totale nel corso del 2025, secondo stime ucraine).

Per adattarsi al cambiamento, le organizzazioni di medicina tattica – come il battaglione medico ucraino Hospitellers, a cui si deve l’introduzione in Ucraina di standard e pratiche mediche avanzate – hanno adottato numerose innovazioni tattiche e logistiche: l’allestimento a ridosso della linea di contatto di bunker chirurgici, dotati di strumenti per interventi di stabilizzazione rapida; l’uso di sistemi di guerra elettronica portatili per proteggere il personale impegnato sul campo; l’impiego, seppur limitato a causa della loro relativa affidabilità, di droni terrestri per estrarre feriti in sicurezza; e, in alcuni casi, l’integrazione di equipaggiamenti difensivi anche per il personale medico.

Trattare i feriti in bunker all’interno della “zona morta” è una misura pragmatica: igienicamente subottimale, ma spesso la sola scelta in grado di aumentare le probabilità di sopravvivenza. Resta però un problema (ampiamente segnalato dalla stampa): i medici e il personale sanitario sono essi stessi obiettivi degli attacchi russi, perché colpirli significa erodere capacità di cura e know-how formativo.

In assenza di mezzi corazzati sicuri per l’estrazione, le squadre mediche ricorrono a soluzioni di emergenza: più punti di primo soccorso, rotazione rapida delle postazioni e, ove possibile, difese elettroniche portatili.

Nuove sfide, vecchi obiettivi

Il dominio dei droni aerei a basso costo, ampiamente disponibili e impiegabili come arma, ha quindi mutato la tipologia di ferite e anche il processo necessario per curarle in modo efficace. Lo scopo di fondo della medicina tattica non è cambiato, ma questa fondamentale pratica clinica ha dovuto ampiamente adattarsi, mentre la golden hour – principio comunque ancora valido – è diventata sempre più difficile da rispettare.

A tutto questo la medicina tattica si adatta – con i bunker, le contromisure elettroniche e i droni terrestri – ma il cambiamento è strutturale: una guerra che si fa sempre più verticale trasforma la realtà della fanteria, le procedure di combattimento e le politiche di cura.

Preservare vite resta un imperativo strategico non negoziabile. Come insegna la storia recente, quando una forza armata espressione di un paese democratico perde la capacità di limitare morti e feriti, la tenuta morale e politica del paese di cui rappresentano gli interessi si incrina.

L'articolo I droni stanno trasformando la medicina di guerra proviene da Guerre di Rete.

  •  

Eredità digitale, che fine fanno i nostri dati dopo la morte?

Nel corso dell’ultimo decennio Internet, i social media e – non da ultima – l’intelligenza artificiale hanno profondamente cambiato il nostro rapporto con la morte. Il sogno dell’immortalità, che ha ossessionato per secoli studiosi di ogni genere, oggi sembra essere in qualche modo diventato realtà. Senza che ce ne accorgessimo, la tecnologia ha creato per ognuno di noi una “vita dopo la morte”: una dimensione digitale in cui i nostri account social e di posta elettronica, blog, dati personali e beni digitali continuano a esistere anche dopo la nostra dipartita, rendendo di fatto la nostra identità eterna.

Questo, da un lato, ha aumentato la possibilità per le persone che subiscono un lutto di sentirsi nuovamente vicine al defunto, tuffandosi negli album digitali delle sue foto, rileggendo quello che ha scritto sulla sua bacheca di Facebook e ascoltando le sue playlist preferite su Spotify. 

“Può consentire anche di mantenere un dialogo con l’alter ego digitale della persona cara defunta, che, attraverso algoritmi di deep fake, può arrivare a simulare una videochiamata, mimando la voce e le sembianze del defunto; a inviare messaggi e email, utilizzando come dati di addestramento le comunicazioni scambiate durante la vita analogica”, osserva Stefania Stefanelli, professoressa ordinaria di Diritto privato all’Università degli studi di Perugia. 

Dall’altro, rende però i dati personali delle persone scomparse un tesoretto alla mercé dei criminali informatici, che possono violarne facilmente gli account, utilizzarne le immagini in modo illecito e usarne le informazioni per creare cloni digitali o deepfake, mettendo a rischio la sicurezza loro e dei loro cari. Un pericolo da non sottovalutare, come anche l’eventualità che la persona non gradisca che gli sopravviva un alter ego virtuale, alimentato coi propri dati personali. Ma come fare, allora, per proteggere la propria eredità digitale? A chi affidarla? E come?

Eredità digitale: cos’è e a chi spetta di diritto

Oggi più che mai ci troviamo a esistere allo stesso tempo in due dimensioni parallele, una fisica e una digitale. Questo, come riferisce il Consiglio Nazionale del Notariato (CNN), ha portato a un ampliamento dei “confini di ciò che possiamo definire eredità”, che sono arrivati a “comprendere altro in aggiunta ai più canonici immobili, conti bancari, manoscritti o ai beni preziosi contenuti nelle cassette di sicurezza”. 

Si parla, allora, di eredità digitale, definita dal CNN come un insieme di risorse offline e online. Della prima categoria fanno parte i file, i software e i documenti informatici creati e/o acquistati dalla persona defunta, i domini associati ai siti web e i blog, a prescindere dal supporto fisico (per esempio, gli hard disk) o virtuale (come può essere il cloud di Google Drive) di memorizzazione. La seconda categoria, invece, include le criptovalute e “tutte quelle risorse che si vengono a creare attraverso i vari tipi di account, siano essi di posta elettronica, di social network, account di natura finanziaria, di e-commerce o di pagamento elettronico”. Rimangono esclusi i beni digitali piratati, alcuni contenuti concessi in licenza personale e non trasferibile, gli account di firma elettronica, gli account di identità digitale e le password.

Chiarito in cosa consiste l’eredità digitale, a questo punto viene da chiedersi: a chi saranno affidati tutti questi beni quando la persona a cui si riferiscono non ci sarà più? Rispondere a questa domanda è più difficile di quanto si possa immaginare. Allo stato attuale non esiste infatti in Italia una legge organica, il che crea negli utenti – siano essi le persone a cui i dati si riferiscono o i parenti di un defunto che si ritrovano a gestire la sua identità in rete – un’enorme confusione sulla gestione dei dati. 

Nonostante si tratti di un tema particolarmente urgente, finora è stato trattato soltanto dal Codice della Privacy, che prevede “che i diritti […] relativi ai dati di persone decedute possano essere esercitati da chi abbia un interesse proprio o agisca a tutela dell’interessato (su suo mandato) o per ragioni familiari meritevoli di protezione”. Un diritto che non risulta esercitabile soltanto nel caso in cui “l’interessato, quando era in vita, lo abbia espressamente vietato”.

Di recente, poi, il Consiglio Nazionale del Notariato è tornato sul tema, sottolineando l’importanza di “pianificare il passaggio dell’eredità digitale”, considerando che “molto spesso le società che danno accesso a servizi, spazi e piattaforme sulla rete internet hanno la propria sede al di fuori del territorio dello Stato e dell’Europa”: in assenza di disposizioni specifiche sull’eredità dei beni digitali, infatti, chiunque cerchi di accedere ai dati di una persona defunta rischia di “incorrere in costose e imprevedibili controversie internazionali”.

Per evitare che questo accada, è possibile investire una persona di fiducia di un mandato post mortem, “ammesso dal nostro diritto per dati e risorse digitali con valore affettivo, familiare e morale”. In termini legali, si tratta di un contratto attraverso cui un soggetto (mandante) incarica un altro soggetto (mandatario) di eseguire compiti specifici dopo la sua morte, come l’organizzazione del funerale, la consegna di un oggetto e, nel caso delle questioni digitali, la disattivazione di profili social o la cancellazione di un account. In alternativa, “si può disporre dei propri diritti e interessi digitali tramite testamento”, al pari di quanto già accade per i beni immobili, i conti bancari e tutto il resto. 

In questo modo, in attesa di una legislazione vera e propria sul tema, sarà possibile lasciare ai posteri un elenco dettagliato dei propri beni e account digitali, password incluse, oltre alle volontà circa la loro archiviazione o cancellazione. “Ai sensi di questa disposizione, si può anche trasmettere a chi gestisce i propri dati una  dichiarazione, nella quale si comunica la propria intenzione circa il destino, dopo la propria morte, di tali dati: la cancellazione totale o parziale, la comunicazione, in tutto o in parte, a soggetti determinati, l’anonimizzazione ecc. Si parla in questi termini di testamento digitale, anche se in senso ‘atecnico’, in quanto la dichiarazione non riveste le forme del testamento, sebbene sia anch’essa revocabile fino all’ultimo istante di vita, e non contiene disposizioni patrimoniali in senso stretto”, prosegue la professoressa Stefanelli.

Eredità e piattaforme digitali: cosa succede agli account delle persone defunte?

Come anticipato, allo stato attuale non esiste una legge che regolamenta l’eredità digitale, né in Italia né in Europa. Pertanto, nel corso degli ultimi anni le piattaforme di social media e i grandi fornitori di servizi digitali si sono organizzati per garantire una corretta gestione degli account di persone scomparse, così da evitare di trasformarsi in veri e propri cimiteri digitali. 

Già da qualche anno, per esempio, Facebook consente agli utenti di nominare un contatto erede, ossia un soggetto che avrà il potere di scegliere se eliminare definitivamente l’account della persona scomparsa o trasformarlo in un profilo commemorativo, dove rimarranno visibili i contenuti che ha condiviso sulla piattaforma nel corso della sua vita. 

Al pari di Facebook, anche Instagram consente ai parenti di un defunto di richiedere la rimozione del suo account o di trasformarlo in un account commemorativo. In entrambi i casi, però, sarà necessario presentare un certificato che attesti la veridicità del decesso della persona in questione o un documento legale che dimostri che la richiesta arriva da un esecutore delle sue volontà. 

TikTok, invece, è rimasto per molto tempo lontano dalla questione dell’eredità digitale. Soltanto lo scorso anno la piattaforma ha introdotto la possibilità di trasformare l’account di una persona defunta in un profilo commemorativo, previa la presentazione di documenti che attestino il suo decesso e un legame di parentela con l’utente che sta avanzando la richiesta. In alternativa, al pari di quanto accade per Facebook e Instagram, è possibile richiedere l’eliminazione definitiva dell’account del defunto. 

Ma non sono solo le piattaforme social a pensare al futuro dei propri utenti. Dal 2021, Apple consente agli utenti di aggiungere un contatto erede, così da permettere a una persona di fiducia di accedere ai dati archiviati nell’Apple Account, o “di eliminare l’Apple Account e i dati con esso archiviati”. Google, invece, offre agli utenti uno strumento avanzato per la gestione dei dati di una persona scomparsa. La “gestione account inattivo” consente infatti di “designare una terza parte, ad esempio un parente stretto, affinché riceva determinati dati dell’account in caso di morte o inattività dell’utente”. 

Più nel dettaglio, la piattaforma permette di “selezionare fino a 10 persone che riceveranno questi dati e scegliere di condividere tutti i tipi di dati o solo alcuni tipi specifici”, oltre alla possibilità di indicare il periodo di tempo dopo il quale un account può davvero essere considerato inattivo. Nel caso in cui un utente non configuri “Gestione account inattivo”, Google si riserva il diritto di eliminare l’account nel caso in cui rimanga inattivo per più di due anni.

Eredità digitale e deadbot: un rischio per la sicurezza?

Anche l’avvento dei sistemi di intelligenza artificiale generativa ha contribuito a cambiare il nostro rapporto con la morte. E le aziende che li sviluppano si sono spinte fino a cercare una soluzione pratica al dolore causato dalla scomparsa di una persona cara. Basti pensare alla rapida diffusione dei deadbot, ovvero dei chatbot che permettono ad amici e familiari di conversare con una persona defunta, simulandone la personalità. Uno strumento che, da un lato, può rivelarsi utile ai fini dell’elaborazione del lutto, ma dall’altro rappresenta un rischio notevole per la privacy e la sicurezza degli individui. 

Per permettere all’AI di interagire con un utente come farebbe una persona scomparsa, questa ha bisogno di attingere a una quantità notevole di informazioni legate alla sua identità digitale: account social, playlist preferite, registro degli acquisti da un e-commerce, messaggi privati, app di terze parti e molto altro ancora. Un uso smodato di dati sensibili che, allo stato attuale, non è regolamentato in alcun modo. 

E questo, al pari di quanto accade con l’eredità digitale, rappresenta un problema non indifferente per la sicurezza: come riferisce uno studio condotto dai ricercatori dell’Università di Torino, quando i dati del defunto non sono “sufficienti o adeguati per sviluppare un indice di personalità, vengono spesso integrati con dati raccolti tramite crowdsourcing per colmare eventuali lacune”. Così facendo, “il sistema può dedurre da questo dataset eterogeneo aspetti della personalità che non corrispondono o non rispondono pienamente agli attributi comportamentali della persona”. In questo caso, i deadbot “finiscono per dire cose che una persona non avrebbe mai detto e forniscono agli utenti conversazioni strane, che possono causare uno stress emotivo paragonabile a quello di rivivere la perdita”. Non sarebbe, quindi, solo la privacy dei defunti a essere in pericolo, ma anche la sicurezza dei loro cari ancora in vita. 

Pur non esistendo una legislazione specifica sul tema, l’AI Act dell’Unione Europea – una delle normative più avanzate sul tema – fornisce alcune disposizioni utili sulla questione, vietando “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole” e anche “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che sfrutta le vulnerabilità di una persona fisica o di uno specifico gruppo di persone (…), con l’obiettivo o l’effetto di distorcere materialmente il comportamento di tale persona”. 

Due indicazioni che, di fatto, dovrebbero proibire l’immissione dei deadbot nel mercato europeo, ma che non forniscono alcuna soluzione utile alla questione della protezione dei dati personali di una persona defunta, che rimane ancora irrisolta. Nel sistema giuridico europeo la legislazione sulla protezione dei dati non affronta esplicitamente né il diritto alla privacy né le questioni relative alla protezione dei dati delle persone decedute. 

Il Regolamento Generale sulla Protezione dei Dati (GDPR), infatti, “non si applica ai dati personali delle persone decedute”, anche se “gli Stati membri possono prevedere norme riguardanti il trattamento dei dati personali delle persone decedute”. Una scelta considerata “coerente con il principio tradizionale secondo cui le decisioni di politica legislativa che incidono sul diritto di famiglia e successorio, in quanto settori caratterizzati da valori nazionali strettamente correlati alle tradizioni e alla cultura della comunità statale di riferimento, esulano dalla competenza normativa dell’Unione europea”. 

Non esistendo una legislazione valida a livello europeo, i governi nazionali hanno adottato approcci diversi alla questione. La maggior parte delle leggi europee sulla privacy, però, sostiene un approccio basato sulla “libertà dei dati”: paesi come Belgio, Austria, Finlandia, Francia, Svezia, Irlanda, Cipro, Paesi Bassi e Regno Unito, quindi, escludono che le persone decedute possano avere diritto alla privacy dei dati, sostenendo che i diritti relativi alla protezione dell’identità e della dignità degli individui si estinguono con la loro morte. 

Secondo questa interpretazione, le aziende tech potrebbero usare liberamente i dati delle persone decedute per addestrare un chatbot. Fortunatamente non è proprio così, considerando che in questi paesi entrano in gioco il reato di diffamazione, il diritto al proprio nome e alla propria immagine, o il diritto alla riservatezza della corrispondenza. Al contrario, invece, paesi come l’Estonia e la Danimarca prevedono che il GDPR si applichi anche alle persone decedute, a cui garantiscono una protezione giuridica per un limite preciso di tempo (10 anni dopo la morte in Danimarca, e 30 in Estonia). E così anche Italia e Spagna, che garantiscono una protezione dei dati dei defunti per un tempo illimitato. 

Pur mancando una legislazione europea uniforme, il GDPR lascia agli Stati membri la facoltà di regolare il trattamento dei dati personali delle persone defunte, e questo comporta differenze, anche sostanziali, delle legislazioni nazionali. Con l’avvento dell’AI e gli sviluppi rapidi che questa comporta, però, diventa sempre più necessario stilare una normativa chiara, precisa e uniforme sulla questione. Così da rispettare non solo la privacy dei nostri cari, ma anche il dolore per la loro perdita.

L'articolo Eredità digitale, che fine fanno i nostri dati dopo la morte? proviene da Guerre di Rete.

  •  

Rosette hi-tech, AI e server nazionali: chi lavora per preservare lingue in via d’estinzione

Immagine in evidenza da Wikimedia

“ll dialetto di Milano? Direi che è un misto di italiano e inglese”. La battuta sintetizza bene l’onnipresenza del caricaturale vernacolo meneghino, versione anni Duemila. Alberto lavora nel dipartimento comunicazione di una società fintech. Trasferito dal sud Italia in Lombardia, diverse esperienze all’estero alle spalle, racconta a cena che in tre anni non gli è mai capitato di sentire una conversazione in milanese. Non ne conosce vocaboli e cadenza se non nelle imitazioni di qualche comico. 

In Meridione il dialetto è parlato comunemente accanto all’italiano: persino gli immigrati lo imparano facilmente, per necessità. Nel capoluogo lombardo la realtà è diversa. Ascoltare la lingua di Carlo Porta è raro: probabilmente la perdita è stata favorita dall’arrivo di abitanti provenienti da ogni parte d’Italia, dalla vocazione commerciale della città e dal fatto che parlare solo italiano era sintomo di avvenuta scalata sociale. 

Non è una domanda peregrina, dunque, chiedersi quanto a lungo resisterà senza parlanti. Diventerà una lingua morta, da filologi, un po’ come il latino?

7mila lingue, quasi la metà a rischio

Le premesse sembrano esserci. Questo esempio così vicino al nostro vissuto quotidiano è però la spia di una questione più ampia. Il problema non riguarda solo i dialetti. In totale sono infatti oltre settemila, stima lo Undp (il programma delle Nazioni unite per lo sviluppo), le lingue parlate nel globo, alcune da poche centinaia di individui. Il 44% sarebbe in pericolo di estinzione

Con la globalizzazione, il problema di preservare la biodiversità linguistica – portatrice non solo di cultura, ma di un modo di vedere il mondo –  ha cominciato a porsi con maggiore insistenza. Non mancano iniziative di tutela locali, come corsi serali per appassionati e nostalgici, ma con tutta probabilità si tratta di palliativi. 

Un supporto fino a poco tempo fa impensabile può arrivare, però, per linguisti e antropologi dalla tecnologia. Probabilmente non è la panacea di tutti i mali. Ma, come vedremo, può aiutare. 

Il Rosetta project

Tra i primi programmi digitali al mondo per la tutela delle lingue in via di estinzione c’è il Rosetta project, che da oltre due decenni raccoglie specialisti e parlanti nativi allo scopo di costruire un database pubblico e liberamente accessibile di tutte le lingue umane. Il Rosetta project fa capo a un ente molto particolare: la Long Now foundation (Lnf, tra i membri fondatori c’è il musicista Brian Eno). La Lnf parte da un presupposto: è necessario pensare seriamente al futuro remoto, per non farsi trovare impreparati dallo scorrere del tempo. 

Il ragionamento è tutt’altro che banale. “Si  prevede che dal cinquanta al novanta per cento delle lingue parlate spariranno nel prossimo secolo”, spiegano gli organizzatori sul sito, “molte con poca o nessuna documentazione”. Come preservarle? 

Lo sguardo torna all’Antico Egitto: così è nato il Rosetta Disk, un disco di nichel del diametro di tre pollici su cui sono incise microscopicamente quattordicimila pagine che traducono lo stesso testo in oltre mille lingue. Il modello è la stele di Rosetta, che due secoli fa consentì di interpretare i geroglifici, di cui si era persa la conoscenza. Una lezione che gli studiosi non hanno dimenticato. 

Il principio è più o meno lo stesso delle vecchie microfiches universitarie: per visualizzare il contenuto basta una lente di ingrandimento. Non si tratta, insomma, di una sequenza di 0 e 1, quindi non è necessario un programma di decodifica. Il rischio –  in Silicon Valley lo sanno bene –  sarebbe che il software vada perso nel giro di qualche decennio per via di un cambiamento tecnologico; o (e sarebbe anche peggio) che qualche società privata che ne detiene i diritti decida di mettere tutto sotto chiave, come peraltro avviene per molte applicazioni con la politica del cosiddetto “vendor lock in” (Guerre di Rete ne ha parlato in questo pezzo). Qui, invece, la faccenda è semplice: basta ingrandire la superficie di cinquecento volte con una lente e il gioco è fatto.  

Il prezioso supporto è acquistabile per qualche centinaio di dollari, ed è stato spedito anche nello spazio con la sonda spaziale Rosetta dell’Agenzia spaziale europea (nonostante l’omonimia, non si tratta dello stesso progetto). Il disco è collocato in una sfera dove resta a contatto con l’aria, ma che serve a proteggerlo da graffi e abrasioni. Con una manutenzione minima, recitano le note di spiegazione, “può facilmente durare ed essere letto per centinaia di anni”. Resiste, ovviamente, anche alla smagnetizzazione (sarebbe basato su test condotti al Los Alamos National Laboratory, lo stesso del progetto Manhattan di Oppenheimer dove fu concepita la bomba atomica). 

Una scelta difficile 

Porsi in una prospettiva di lungo periodo pone interessanti domande. Che tipo di informazioni conservare per un futuro nell’ipotesi – speriamo remota – che tutto il nostro sapere, sempre più digitalizzato, vada perso? Meglio preservare la letteratura, le tecniche ingegneristiche, o le cure per le malattie? Un criterio è evidentemente necessario. 

La scelta della Long now foundation è stata quella di lasciare ai posteri una chiave di interpretazione utile a tradurre tutto ciò che è destinato a sopravvivere. Ma il progetto comprende anche una sezione digitale, cresciuta nel corso degli anni fino a raggiungere oltre centomila pagine di documenti testuali e registrazioni in oltre 2.500 lingue. I contenuti, si legge sul sito, sono disponibili a chiunque per il download e il riutilizzo secondo i principi dell’open access; anche il pubblico può contribuire alla raccolta inviando materiale di vario tipo. Fondamentale per raccapezzarsi è il ruolo dei metadati (data, luogo, formato e altri elementi dei dati in questione) – ci torneremo più avanti.

Il progetto francese Pangloss

Anche in Europa ci sono progetti di tutela del patrimonio linguistico in piena attività. Per esempio in Francia – non dimentichiamo che la stele di Rosetta (conservata al British Musem di Londra) fu rinvenuta  nell’ambito delle spedizioni napoleoniche – esiste il progetto Pangloss, che si propone di realizzare un archivio aperto di tutte le lingue in pericolo o poco parlate e contiene documenti sonori di idiomi rari o poco studiati, raccolti grazie al lavoro di linguisti professionisti su una piattaforma moderna e funzionale battezzata Cocoon. 

Attualmente la collezione comprende un corpus di 258 tra lingue e dialetti di 46 paesi, per un totale di più di 1200 ore d’ascolto. I documenti presentati contengono per lo più discorsi spontanei, registrati sul campo. Circa la metà sono trascritti e annotati.

C’è anche un po’ di Italia: il dialetto slavo molisano (parlato nei tre villaggi di San Felice del Molise, Acquaviva Collecroce e Montemitro, in provincia di Campobasso, a 35 chilometri dal mare Adriatico) e il Valoc, un dialetto valtellinese lombardo.

Pangloss è open, sia in modalità “base” sia in quella “pro”. La politica è di apertura totale: per consultare il sito web non è necessario accettare specifiche condizioni d’uso né identificarsi. Non si utilizzano cookie di profilazione, come orgogliosamente dichiarato

“Il progetto Pangloss è nato negli anni ‘90 e da allora si è evoluto considerevolmente”, dice a Guerre di Rete Severine Guillaume, che ne è la responsabile. “Si tratta di una collezione orale, il che significa che raccogliamo contenuti video e audio che possono anche essere accompagnati da annotazioni: trascrizioni, traduzioni, glosse. Ogni risorsa depositata dev’essere fornita di metadati: titolo, lingua studiata, nome di chi la carica, persone che hanno contribuito alla creazione, data della registrazione, descrizione del contenuto”. 

Come analizzare i dati: l’impiego dell’AI

L’intelligenza artificiale ha cominciato a farsi strada anche tra questi archivi digitali. “Abbiamo condotto degli esperimenti sui nostri dati con l’obiettivo di aiutare i ricercatori ad arricchirli”, conferma Guillaume. “Sono stati diversi i test di  trascrizione automatica, e due di loro l’hanno già impiegata: per ogni minuto di audio si possono risparmiare fino a quaranta minuti di lavoro, lasciando agli studiosi il tempo di dedicarsi a compiti più importanti. Al momento, insomma, direi che stiamo sperimentando”. 

Non è detto che funzioni in ogni situazione, ma “la risposta iniziale è affermativa quando la trascrizione riguarda un solo parlante”, prosegue Guillaume. Il problema sta “nella cosiddetta diarization, che consiste nel riconoscere chi sta parlando in un dato momento, separare le voci, e attribuire ogni segmento audio al partecipante corretto”.

Le prospettive, tutto sommato, sembrano incoraggianti. “Abbiamo cominciato a cercare somiglianze tra due idiomi o famiglie linguistiche: ciò potrebbe rivelare correlazioni che ci sono sfuggite”, afferma la dirigente. Siamo, per capirci, nella direzione della grammatica universale teorizzata da Noam Chomsky, e immaginata da Voltaire nel suo Candido (il dottor Pangloss, ispirandosi a Leibniz, si poneva lo scopo di scovare gli elementi comuni a tutte le lingue del mondo). 

Come conservare i dati: il ruolo delle infrastrutture pubbliche

Il problema di preservare il corpus di conoscenze è stato affrontato? “Sì”, risponde Guillaume. “La piattaforma Cocoon, su cui è basata la collezione Pangloss, impiega l’infrastruttura nazionale francese per assicurare la longevità dei dati. Per esempio, tutte le informazioni sono conservate sui server dell’infrastruttura di ricerca Huma-Num, dedicata ad arti, studi umanistici e scienze sociali, finanziata e implementata dal ministero dell’Istruzione superiore e della Ricerca. Vengono poi mandate al Cines, il centro informatico nazionale per l’insegnamento superiore, che ne assicura l’archiviazione per almeno quindici anni. Infine, i dati sono trasferiti agli archivi nazionali francesi. Insomma, di norma tutto è pensato per durare per l’eternità”. 

Altro progetto dalla connotazione fortemente digitale è Ethnologue. Nato in seno alla SIL (Summer Institute of Linguistics, una ong di ispirazione cristiano-evangelica con sede a Dallas) copre circa settemila lingue, offrendo anche informazioni sul numero di parlanti, mappe, storia, demografia e altri fattori sociolinguistici. Il progetto, nato nel 1951, coinvolge quattromila persone, e nasce dall’idea di diffondere le Scritture. Negli anni si è strutturato in maniera importante: la piattaforma è ricca di strumenti, e molti contenuti sono liberamente fruibili. Sebbene la classificazione fornita dal sito (per esempio la distinzione tra lingua e dialetto) sia stata messa in discussione, resta un punto di riferimento importante. 

I progetti italiani 

Non manca qualche spunto italiano. Come, per esempio, Alpilink. Si tratta di un progetto collaborativo per la documentazione, analisi e promozione dei dialetti e delle lingue minoritarie germaniche, romanze e slave dell’arco alpino nazionale. Dietro le quinte ci sono le università di Verona, Trento, Bolzano, Torino e Valle d’Aosta. A maggio 2025 erano stati raccolti 47.699 file audio, che si aggiungono ad altri 65.415 file collezionati nel precedente progetto Vinko. Le frasi pronunciate dai parlanti locali con varie inflessioni possono essere trovate e ascoltate grazie a una mappa interattiva, ma esiste anche un corpus per specialisti che propone gli stessi documenti  con funzioni di ricerca avanzate. Il crowdsourcing (cioè la raccolta di contenuti) si è conclusa solo qualche mese fa, a fine giugno. La difficoltà per gli anziani di utilizzare la tecnologia digitale è stata aggirata coinvolgendo gli studenti del triennio delle superiori. 

Altro progetto interessante è Devulgare. In questo caso mancano gli strumenti più potenti che sono propri dell’università; ma l’idea di due studenti, Niccolò e Guglielmo, è riuscita ugualmente a concretizzarsi in un’associazione di promozione sociale e in un’audioteca che raccoglie campioni vocali dal Trentino alla Calabria. Anche in questo caso, chiunque può partecipare inviando le proprie registrazioni. Dietro le quinte, c’è una squadra di giovani volontari – con cui peraltro è possibile collaborare – interessati alla conservazione del patrimonio linguistico nazionale. Un progetto nato dal basso ma molto interessante, soprattutto perché dimostra la capacità di sfruttare strumenti informatici a disposizione di tutti in modo creativo: Devulgare si basa, infatti, sulla piattaforma Wix, simile a WordPress e che consente di creare siti senza la necessità di essere maestri del codice. Una vivace pagina Instagram con 10.300 follower – non pochi, trattandosi di linguistica –  contribuisce alla disseminazione dei contenuti. 

Ricostruire la voce con la AI 

Raccogliere campioni audio ha anche un’altra utilità: sulla base delle informazioni raccolte e digitalizzate oggi, sarà possibile domani, grazie all’intelligenza artificiale, ascoltare le lingue scomparse. L’idea viene da una ricerca applicata alla medicina, che attraverso un campione di soli otto secondi, registrato su un vecchio VHS, ha permesso di ricostruire con l’AI la voce di una persona che l’aveva persa. 

È accaduto in Inghilterra, e recuperare il materiale non è stato una passeggiata: le uniche prove della voce di una donna affetta da Sla risalivano agli anni Novanta ed erano conservate su una vecchia videocassetta. Nascere molti anni prima dell’avvento degli smartphone ovviamente non ha aiutato. A centrare l’obiettivo sono stati i ricercatori dell’università di Sheffield. Oggi la donna può parlare, ovviamente con delle limitazioni: deve fare ricorso a un puntatore oculare per comporre parole e frasi. Ma la voce sintetizzata è molto simile a quella che aveva una volta. E questo apre prospettive insperate per i filologi. 

Come spesso accade, il marketing ha naso per le innovazioni dotate di potenziale. E così, oggi c’è chi pensa di sfruttare l’inflessione dialettale per conquistare la fiducia dei consumatori. È quello che pensano i due ricercatori Andre Martin (Università di Notre Dame, Usa) e Khalia Jenkins (American University, Washington), che nella presentazione del loro studio citano addirittura Nelson Mandela: “Se parli a un uomo in una lingua che capisce, raggiungerai la sua testa. Ma se gli parli nella sua lingua, raggiungerai il suo cuore”. 

“I sondaggi dell’industria hanno fotografato il sentiment sempre più negativo verso l’AI”, scrivono gli studiosi, che lavorano in due business school. “Immergendosi a fondo nel potenziale dei dialetti personalizzati, creati con l’AI al fine di aumentare la percezione di calore, competenza e autenticità da parte dell’utente, l’articolo sottolinea [come in questo modo si possa] rafforzare la fiducia, la soddisfazione e la lealtà nei confronti dei sistemi di intelligenza artificiale”. Insomma, addestrando gli agenti virtuali a parlare con una cadenza amica si può vendere di più. C’è sempre un risvolto business, e qui siamo decisamente lontani dagli intenti di conservazione della biodiversità linguistica. Ma anche questo fa parte del gioco.

L'articolo Rosette hi-tech, AI e server nazionali: chi lavora per preservare lingue in via d’estinzione proviene da Guerre di Rete.

  •