Vista elenco

Ricevuto prima di ieri

Il 64% delle app di terze parti accede a dati sensibili senza un motivo valido. La ricerca di Reflectiz

16 Gennaio 2026 ore 09:00

Dall’ultima ricerca di Reflectiz, “The State of Web Exposure 2026“, emerge una questione allarmante: secondo il report, il 64% delle app di terze parti accede a dati sensibili senza una vera necessità tecnica o aziendale. Si tratta di un aumento importante rispetto al 51% registrato nel 2024 che evidenzia come la “Web exposure”, ovvero la […]

L'articolo Il 64% delle app di terze parti accede a dati sensibili senza un motivo valido. La ricerca di Reflectiz proviene da Securityinfo.it.

Truffa del codice WhatsApp: come riconoscerla e difendersi

14 Gennaio 2026 ore 09:20

La truffa del codice WhatsApp è tornata a colpire e rappresenta oggi uno dei pericoli più insidiosi sulla celebre piattaforma di messaggistica. Ti è mai capitato di ricevere un messaggio da un amico che ti chiede, con una scusa banale, di inoltrargli un codice a sei cifre appena ricevuto via SMS? Se dovesse accaderti, fermati subito. Potresti essere il bersaglio di un tentativo di furto del tuo account.

Ma cosa si nasconde davvero dietro questa richiesta? Non è un errore, ma una strategia ben congegnata per sottrarti il controllo del tuo profilo. Vediamo insieme come funziona, quali sono i rischi e, soprattutto, come puoi proteggerti in modo efficace.

Come funziona esattamente la truffa del codice WhatsApp?

Il meccanismo è tanto semplice quanto pericoloso. I truffatori non hanno bisogno di complesse competenze informatiche, ma contano sulla distrazione e sulla fiducia delle persone. L'inganno si svolge in pochi, rapidi passaggi. Innanzitutto il malintenzionato tenta di registrare il tuo numero di telefono su un nuovo dispositivo. Per completare questa operazione, WhatsApp invia per sicurezza un codice di verifica a sei cifre (OTP, One Time Password) via SMS al tuo numero, cioè al legittimo proprietario.

A questo punto scatta la parte cruciale dell'inganno. Il truffatore ti contatta, spesso usando l'account di un amico (già truffato in precedenza), e inventa una scusa plausibile. Potrebbe scriverti: "Ciao, scusa il disturbo, ho sbagliato a inserire il mio numero e ti ho inviato per errore un codice. Potresti girarmelo?". Se cadi nella trappola e comunichi quel codice, hai appena consegnato le chiavi del tuo account. Con quei sei numeri, il truffatore potrà completare l'accesso sul suo dispositivo, escludendoti dal tuo profilo.

Cosa succede se cadi nella trappola?

Le conseguenze possono essere molto spiacevoli. Una volta che il cybercriminale ha preso il controllo del tuo account WhatsApp, può compiere diverse azioni a tuo nome, mettendo a rischio la tua privacy e la tua reputazione.

Ecco i pericoli principali:

  • Furto d'identità: il truffatore può spacciarsi per te e contattare i tuoi amici, familiari e colleghi.
  • Richieste di denaro: potrebbe inventare emergenze e chiedere prestiti o ricariche telefoniche ai tuoi contatti, sfruttando la loro fiducia.
  • Diffusione della truffa: userà il tuo account per ingannare altre persone nella tua rubrica, alimentando la catena.
  • Accesso a informazioni private: potrebbe leggere media e informazioni scambiate nelle chat, violando la tua privacy.

La truffa del codice WhatsApp: come difendersi in 3 semplici passi

La buona notizia è che proteggersi è più semplice di quanto pensi. Non servono antivirus o software complicati, ma solo un po' di attenzione e le giuste impostazioni di sicurezza.

1. Non condividere mai il codice di WhatsApp

Questa è la regola d'oro, la più importante di tutte. Il codice di verifica di WhatsApp è strettamente personale, come il PIN di un bancomat. Nessuno, neanche l'assistenza ufficiale, ti chiederà mai di condividerlo via chat. Qualsiasi messaggio che contiene questa richiesta è, senza alcun dubbio, un tentativo di frode. Ignoralo e non rispondere.

2. Attiva la verifica in due passaggi

Questo è lo scudo di difesa più potente che hai a disposizione. La verifica in due passaggi aggiunge un ulteriore livello di sicurezza. Oltre al codice via SMS, ti verrà richiesto un PIN a 6 cifre creato da te ogni volta che registri il tuo numero su un nuovo telefono. In questo modo, anche se i truffatori ottenessero il codice SMS, non potrebbero fare nulla senza il tuo PIN segreto.

Per attivarla vai su WhatsApp e segui questo percorso: Impostazioni > Account > Verifica in due passaggi > Attiva.

È un'operazione che richiede meno di un minuto e che può salvarti da enormi problemi.

3. Segnala e blocca il contatto sospetto

Se ricevi un messaggio di questo tipo, la cosa migliore da fare è segnalare la conversazione a WhatsApp e bloccare immediatamente il contatto.

Se il messaggio proveniva da un amico, contattalo subito tramite un altro canale (una telefonata o un'altra app) per avvisarlo che il suo account è stato compromesso.

Cosa fare se sei già stato truffato?

Se ti rendi conto di aver comunicato il codice quando ormai è troppo tardi, non farti prendere dal panico. Prova subito a reinstallare WhatsApp sul tuo telefono e a effettuare di nuovo l'accesso con il tuo numero. In questo modo riceverai un nuovo codice di verifica e, inserendolo, potrai espellere il truffatore dal tuo account.

Se non riesci a rientrare, contatta l'assistenza di WhatsApp e, cosa fondamentale, avvisa i tuoi contatti più stretti dell'accaduto, così che non cadano a loro volta nella trappola.

L'articolo Truffa del codice WhatsApp: come riconoscerla e difendersi proviene da sicurezza.net.

Allarme password aziendali deboli: più del 40% è violabile in meno di un’ora

13 Gennaio 2026 ore 16:56

Gli utenti aziendali utilizzano ancora password deboli, tanto che il 40% di esse è violabile in meno di un’ora: è quanto emerge dati condivisi da Errevi System, azienda ICT italiana, raccolti tramite PassBuster, una soluzione per la valutazione della robustezza delle credenziali. L’analisi rivela anche che quasi una password su due ha un livello di violabilità […]

L'articolo Allarme password aziendali deboli: più del 40% è violabile in meno di un’ora proviene da Securityinfo.it.

Nuova legge sui deepfake intimi nel Regno Unito

13 Gennaio 2026 ore 09:34

La diffusione di deepfake intimi nel Regno Unito ha ora una risposta legale chiara e decisa. Con l'entrata in vigore di una nuova e severa normativa, il paese lancia un messaggio inequivocabile: creare e condividere immagini intime false generate dall'intelligenza artificiale è un reato.

Ma cosa significa questa legge e perché piattaforme come X (ex Twitter) e la sua IA, Grok, sono già nel mirino delle autorità? Analizziamo i punti fondamentali.

Cosa cambia con la nuova legge sui deepfake intimi in Regno Unito

Fino a poco tempo fa, il panorama legale britannico era incerto. Le vittime di questa forma di abuso digitale si trovavano spesso in un limbo, senza strumenti concreti per difendersi. Ora, grazie all'Online Safety Act, la situazione è radicalmente cambiata.

La nuova legge rende reato la condivisione di immagini intime false generate con l'IA. Questo è valido anche se il creatore non aveva l'intento esplicito di causare sofferenza alla vittima. In precedenza era necessario dimostrare la "volontà di nuocere", un ostacolo legale spesso difficile da superare. Adesso, invece, il semplice atto di creare e distribuire tale materiale senza il consenso della persona raffigurata è sufficiente per essere perseguiti.

Le pene previste sono severe: si parla di multe illimitate e persino del carcere.

Perché X e l'IA Grok sono sotto indagine in UK

Subito dopo l'entrata in vigore della legge, l'autorità di regolamentazione britannica, l'Ofcom, ha avviato un'indagine. I riflettori sono puntati su X e sulla sua intelligenza artificiale generativa, Grok. La ragione è duplice e mette in luce la complessità del problema.

Da un lato X è sotto esame per la gestione di questi contenuti sulla piattaforma. Le autorità vogliono assicurarsi che il social network abbia implementato misure di sicurezza adeguate per impedire che i deepfake intimi diventino virali. Dall'altro, l'indagine si concentra su Grok, l'IA sviluppata da xAI di Elon Musk. La preoccupazione è che questi strumenti possano essere usati per generare facilmente il materiale illegale.

Non si tratta quindi solo di punire chi condivide, ma anche di responsabilizzare chi fornisce la tecnologia.

Conseguenze della normativa sui deepfake intimi nel Regno Unito

L'impatto di questa legge va ben oltre le aule di tribunale. Stiamo assistendo a un cambiamento culturale e tecnologico con effetti a catena per tutti gli attori coinvolti.

Una vittoria per le vittime di deepfake intimi

Per troppo tempo le vittime di questa violenza digitale si sono sentite impotenti. Questa legge rappresenta una vittoria cruciale, offrendo loro uno strumento legale concreto per chiedere giustizia. È un passo avanti enorme per il riconoscimento della gravità di un abuso che lascia ferite psicologiche profonde e durature.

Maggiori responsabilità per le piattaforme

Per i giganti della tecnologia, le regole sono cambiate. Infatti la normativa li obbliga a prendere una posizione più attiva e a non nascondersi dietro il ruolo di semplici "contenitori". Ora sono chiamati a investire in sistemi di moderazione, a rispondere rapidamente alle segnalazioni e a collaborare con le autorità. La loro responsabilità legale è ora chiaramente definita.

Un rischio concreto nel Regno Unito per i creatori di deepfake intimi

Chiunque pensi di poter creare un deepfake intimo per scherzo o per vendetta ora deve pensarci due volte. Le conseguenze non sono più ipotetiche. Con il rischio di una fedina penale sporca, multe salate e carcere, l'atto di creare e condividere questi contenuti diventa ciò che è sempre stato: un crimine grave.

Uno sguardo al futuro della regolamentazione in UK

Il Regno Unito ha stabilito un precedente importante, ma la battaglia contro l'uso improprio dell'intelligenza artificiale per creare deepfake è appena iniziata. Questa legge potrebbe diventare un modello per altre nazioni che affrontano lo stesso problema. La sfida ora sarà far rispettare le regole in un mondo digitale senza confini e in continua evoluzione.

Una cosa è certa: la consapevolezza è aumentata e il dibattito sulla regolamentazione dell'IA è più acceso che mai.

L'articolo Nuova legge sui deepfake intimi nel Regno Unito proviene da sicurezza.net.

Legge dell'UE sulla sorveglianza robotica e la privacy

12 Gennaio 2026 ore 10:14
sorveglianza robotica e privacy

Il tema della sorveglianza robotica e privacy sta rapidamente uscendo dai film di fantascienza per entrare nelle nostre case. Ma cosa succederebbe se il tuo amichevole robot domestico, quello che ti aiuta con le pulizie o tiene compagnia a un familiare, fosse obbligato per legge a monitorare le tue interazioni? Sembra uno scenario distopico, eppure una controversa proposta dell'Unione Europea, nota come “Chat Control”, rischia di creare proprio questo paradosso.

Un recente studio accademico ha lanciato l'allarme: una legge pensata per la sicurezza online rischia di avere conseguenze inaspettate e pericolose nel mondo fisico, trasformando i robot in potenziali strumenti di sorveglianza. Scopriamo insieme perché dovremmo prestare molta attenzione.

Cos'è il "chat control" e perché riguarda anche i robot?

Forse hai già sentito parlare del "Chat Control". Si tratta di una proposta legislativa dell'UE nata con il nobile obiettivo di combattere la diffusione online di materiale pedopornografico. L'idea iniziale era semplice: obbligare i fornitori di servizi di comunicazione a scansionare i messaggi degli utenti, anche quelli protetti da crittografia. Questa proposta ha scatenato un'ondata di critiche da parte di oltre 800 esperti di sicurezza, che hanno avvertito sui rischi di un simile approccio. Infatti metodi di questo tipo indeboliscono la crittografia e funzionano come vere e proprie "backdoor", porte di servizio che potrebbero essere sfruttate da malintenzionati.

Di fronte alle proteste, la proposta è stata rivista ma il problema di fondo non è scomparso. Invece di un obbligo esplicito di scansione, la responsabilità di identificare e mitigare i rischi ricade ora sui fornitori. L'incentivo a monitorare su larga scala per dimostrare di essere conformi alla legge rimane fortissimo. Ed è qui che entrano in gioco i robot.

Il cortocircuito legale sulla sorveglianza robotica e la privacy

Qui sta il cuore del problema. Secondo la legge europea un "servizio di comunicazione interpersonale" è qualsiasi sistema che permette uno scambio interattivo di informazioni su una rete. Questa descrizione si adatta perfettamente ai robot di ultima generazione. Infatti i moderni robot non sono più semplici bracci meccanici:

  • Un robot per la telepresenza permette a un bambino malato di partecipare alle lezioni da casa, trasmettendo la sua voce, le sue espressioni e le sue emozioni.
  • Un robot di assistenza in una casa di cura facilita le conversazioni tra un paziente, i suoi familiari e i medici.

Questi dispositivi sono a tutti gli effetti dei mediatori di comunicazione. Una volta definiti come tali, rientrano automaticamente nel campo di applicazione del Chat Control. Di conseguenza i loro produttori potrebbero sentirsi obbligati a integrare meccanismi di rilevamento e analisi direttamente nell'hardware e nel software del robot. In questo modo la sorveglianza si sposterebbe così dagli schermi ai nostri spazi più privati.

I rischi concreti della sorveglianza robotica e privacy

L'idea di un monitoraggio integrato nei robot apre scenari inquietanti, trasformando un dispositivo nato per aiutare in una potenziale minaccia alla nostra sicurezza.

Dai dati al controllo fisico: un nuovo modello di minaccia

Un robot presente in casa o in un ambiente di cura raccoglie una quantità enorme di dati estremamente sensibili: le nostre routine quotidiane, le conversazioni private, le reazioni emotive e persino informazioni sul nostro stato di salute. Se questi dati vengono costantemente inviati a sistemi di analisi per la "mitigazione del rischio", si crea una vera e propria miniera d'oro per i criminali informatici.

Ogni canale di trasmissione dati diventa un potenziale punto di accesso. Il pericolo, però, non si ferma ai dati. Le "backdoor" create per rispettare la legge non distinguono tra un accesso autorizzato e uno ostile. Un hacker che riuscisse a sfruttarle potrebbe prendere il controllo del robot, manipolando i suoi sensori o impartendo comandi diretti. Le implicazioni per la sicurezza fisica delle persone sono enormi.

L'intelligenza artificiale come arma a doppio taglio

Il rischio è amplificato dall'uso di modelli di Intelligenza Artificiale, come gli LLM (Large Language Models), integrati nei robot. Ricerche hanno dimostrato che questi sistemi possono essere "attivati" da comandi nascosti o specifici contesti per eseguire azioni impreviste. In teoria un aggressore potrebbe usare una semplice frase per reindirizzare il comportamento di un robot, trasformandolo in uno strumento per spiare o per arrecare un danno.

Impatto sulla nostra vita quotidiana

La relazione tra un essere umano e un robot sociale, specialmente in contesti di cura o educazione, si fonda su un pilastro fondamentale: la fiducia. Percepiamo questi dispositivi come compagni, supporti ed estensioni delle nostre capacità. Cosa succede quando questa fiducia viene meno? Un monitoraggio continuo altera radicalmente questa relazione. Il robot non è più solo un assistente, ma diventa un osservatore, un reporter per design.

Ti fideresti di un confidente che sai essere obbligato a registrare ogni tua parola? La consapevolezza di una sorveglianza ambientale ci porta a modificare i nostri comportamenti, a limare la nostra spontaneità e a perdere autonomia proprio negli spazi che consideriamo più sicuri.

Come proteggere il nostro futuro digitale?

La tecnologia non è il nemico. Un robot può migliorare la qualità della vita in modi straordinari. Tuttavia, una legislazione ben intenzionata ma miope rischia di creare un futuro in cui i benefici sono oscurati da gravi rischi per la privacy e la sicurezza. È fondamentale che le normative spingano verso la trasparenza e la protezione dei dati "by design".

Le soluzioni esistono: bisognerebbe, per esempio, incentivare l'elaborazione dei dati direttamente sul dispositivo, senza inviarli a server remoti. È inoltre cruciale istituire meccanismi di supervisione rigorosi per garantire che la nostra privacy rimanga protetta. Solo così potremo costruire un futuro in cui la tecnologia sia veramente al nostro servizio, senza trasformare i nostri aiutanti in guardiani indesiderati.

L'articolo Legge dell'UE sulla sorveglianza robotica e la privacy proviene da sicurezza.net.

Due estensioni Chrome hanno compromesso le chat di ChatGPT e DeepSeek

7 Gennaio 2026 ore 17:33

I ricercatori di OX Security hanno individuato due estensioni Chrome in grado di OX Security ha individuato due estensioni Chrome in grado di esfiltrare dati dalle chat di ChatGPT e DeepSeek. Le due estensioni (Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek AI e AI Sidebar with Deepseek, ChatGPT, Claude and more) contano […]

L'articolo Due estensioni Chrome hanno compromesso le chat di ChatGPT e DeepSeek proviene da Securityinfo.it.

Eredità digitale, che fine fanno i nostri dati dopo la morte?

22 Ottobre 2025 ore 11:00

Nel corso dell’ultimo decennio Internet, i social media e – non da ultima – l’intelligenza artificiale hanno profondamente cambiato il nostro rapporto con la morte. Il sogno dell’immortalità, che ha ossessionato per secoli studiosi di ogni genere, oggi sembra essere in qualche modo diventato realtà. Senza che ce ne accorgessimo, la tecnologia ha creato per ognuno di noi una “vita dopo la morte”: una dimensione digitale in cui i nostri account social e di posta elettronica, blog, dati personali e beni digitali continuano a esistere anche dopo la nostra dipartita, rendendo di fatto la nostra identità eterna.

Questo, da un lato, ha aumentato la possibilità per le persone che subiscono un lutto di sentirsi nuovamente vicine al defunto, tuffandosi negli album digitali delle sue foto, rileggendo quello che ha scritto sulla sua bacheca di Facebook e ascoltando le sue playlist preferite su Spotify. 

“Può consentire anche di mantenere un dialogo con l’alter ego digitale della persona cara defunta, che, attraverso algoritmi di deep fake, può arrivare a simulare una videochiamata, mimando la voce e le sembianze del defunto; a inviare messaggi e email, utilizzando come dati di addestramento le comunicazioni scambiate durante la vita analogica”, osserva Stefania Stefanelli, professoressa ordinaria di Diritto privato all’Università degli studi di Perugia. 

Dall’altro, rende però i dati personali delle persone scomparse un tesoretto alla mercé dei criminali informatici, che possono violarne facilmente gli account, utilizzarne le immagini in modo illecito e usarne le informazioni per creare cloni digitali o deepfake, mettendo a rischio la sicurezza loro e dei loro cari. Un pericolo da non sottovalutare, come anche l’eventualità che la persona non gradisca che gli sopravviva un alter ego virtuale, alimentato coi propri dati personali. Ma come fare, allora, per proteggere la propria eredità digitale? A chi affidarla? E come?

Eredità digitale: cos’è e a chi spetta di diritto

Oggi più che mai ci troviamo a esistere allo stesso tempo in due dimensioni parallele, una fisica e una digitale. Questo, come riferisce il Consiglio Nazionale del Notariato (CNN), ha portato a un ampliamento dei “confini di ciò che possiamo definire eredità”, che sono arrivati a “comprendere altro in aggiunta ai più canonici immobili, conti bancari, manoscritti o ai beni preziosi contenuti nelle cassette di sicurezza”. 

Si parla, allora, di eredità digitale, definita dal CNN come un insieme di risorse offline e online. Della prima categoria fanno parte i file, i software e i documenti informatici creati e/o acquistati dalla persona defunta, i domini associati ai siti web e i blog, a prescindere dal supporto fisico (per esempio, gli hard disk) o virtuale (come può essere il cloud di Google Drive) di memorizzazione. La seconda categoria, invece, include le criptovalute e “tutte quelle risorse che si vengono a creare attraverso i vari tipi di account, siano essi di posta elettronica, di social network, account di natura finanziaria, di e-commerce o di pagamento elettronico”. Rimangono esclusi i beni digitali piratati, alcuni contenuti concessi in licenza personale e non trasferibile, gli account di firma elettronica, gli account di identità digitale e le password.

Chiarito in cosa consiste l’eredità digitale, a questo punto viene da chiedersi: a chi saranno affidati tutti questi beni quando la persona a cui si riferiscono non ci sarà più? Rispondere a questa domanda è più difficile di quanto si possa immaginare. Allo stato attuale non esiste infatti in Italia una legge organica, il che crea negli utenti – siano essi le persone a cui i dati si riferiscono o i parenti di un defunto che si ritrovano a gestire la sua identità in rete – un’enorme confusione sulla gestione dei dati. 

Nonostante si tratti di un tema particolarmente urgente, finora è stato trattato soltanto dal Codice della Privacy, che prevede “che i diritti […] relativi ai dati di persone decedute possano essere esercitati da chi abbia un interesse proprio o agisca a tutela dell’interessato (su suo mandato) o per ragioni familiari meritevoli di protezione”. Un diritto che non risulta esercitabile soltanto nel caso in cui “l’interessato, quando era in vita, lo abbia espressamente vietato”.

Di recente, poi, il Consiglio Nazionale del Notariato è tornato sul tema, sottolineando l’importanza di “pianificare il passaggio dell’eredità digitale”, considerando che “molto spesso le società che danno accesso a servizi, spazi e piattaforme sulla rete internet hanno la propria sede al di fuori del territorio dello Stato e dell’Europa”: in assenza di disposizioni specifiche sull’eredità dei beni digitali, infatti, chiunque cerchi di accedere ai dati di una persona defunta rischia di “incorrere in costose e imprevedibili controversie internazionali”.

Per evitare che questo accada, è possibile investire una persona di fiducia di un mandato post mortem, “ammesso dal nostro diritto per dati e risorse digitali con valore affettivo, familiare e morale”. In termini legali, si tratta di un contratto attraverso cui un soggetto (mandante) incarica un altro soggetto (mandatario) di eseguire compiti specifici dopo la sua morte, come l’organizzazione del funerale, la consegna di un oggetto e, nel caso delle questioni digitali, la disattivazione di profili social o la cancellazione di un account. In alternativa, “si può disporre dei propri diritti e interessi digitali tramite testamento”, al pari di quanto già accade per i beni immobili, i conti bancari e tutto il resto. 

In questo modo, in attesa di una legislazione vera e propria sul tema, sarà possibile lasciare ai posteri un elenco dettagliato dei propri beni e account digitali, password incluse, oltre alle volontà circa la loro archiviazione o cancellazione. “Ai sensi di questa disposizione, si può anche trasmettere a chi gestisce i propri dati una  dichiarazione, nella quale si comunica la propria intenzione circa il destino, dopo la propria morte, di tali dati: la cancellazione totale o parziale, la comunicazione, in tutto o in parte, a soggetti determinati, l’anonimizzazione ecc. Si parla in questi termini di testamento digitale, anche se in senso ‘atecnico’, in quanto la dichiarazione non riveste le forme del testamento, sebbene sia anch’essa revocabile fino all’ultimo istante di vita, e non contiene disposizioni patrimoniali in senso stretto”, prosegue la professoressa Stefanelli.

Eredità e piattaforme digitali: cosa succede agli account delle persone defunte?

Come anticipato, allo stato attuale non esiste una legge che regolamenta l’eredità digitale, né in Italia né in Europa. Pertanto, nel corso degli ultimi anni le piattaforme di social media e i grandi fornitori di servizi digitali si sono organizzati per garantire una corretta gestione degli account di persone scomparse, così da evitare di trasformarsi in veri e propri cimiteri digitali. 

Già da qualche anno, per esempio, Facebook consente agli utenti di nominare un contatto erede, ossia un soggetto che avrà il potere di scegliere se eliminare definitivamente l’account della persona scomparsa o trasformarlo in un profilo commemorativo, dove rimarranno visibili i contenuti che ha condiviso sulla piattaforma nel corso della sua vita. 

Al pari di Facebook, anche Instagram consente ai parenti di un defunto di richiedere la rimozione del suo account o di trasformarlo in un account commemorativo. In entrambi i casi, però, sarà necessario presentare un certificato che attesti la veridicità del decesso della persona in questione o un documento legale che dimostri che la richiesta arriva da un esecutore delle sue volontà. 

TikTok, invece, è rimasto per molto tempo lontano dalla questione dell’eredità digitale. Soltanto lo scorso anno la piattaforma ha introdotto la possibilità di trasformare l’account di una persona defunta in un profilo commemorativo, previa la presentazione di documenti che attestino il suo decesso e un legame di parentela con l’utente che sta avanzando la richiesta. In alternativa, al pari di quanto accade per Facebook e Instagram, è possibile richiedere l’eliminazione definitiva dell’account del defunto. 

Ma non sono solo le piattaforme social a pensare al futuro dei propri utenti. Dal 2021, Apple consente agli utenti di aggiungere un contatto erede, così da permettere a una persona di fiducia di accedere ai dati archiviati nell’Apple Account, o “di eliminare l’Apple Account e i dati con esso archiviati”. Google, invece, offre agli utenti uno strumento avanzato per la gestione dei dati di una persona scomparsa. La “gestione account inattivo” consente infatti di “designare una terza parte, ad esempio un parente stretto, affinché riceva determinati dati dell’account in caso di morte o inattività dell’utente”. 

Più nel dettaglio, la piattaforma permette di “selezionare fino a 10 persone che riceveranno questi dati e scegliere di condividere tutti i tipi di dati o solo alcuni tipi specifici”, oltre alla possibilità di indicare il periodo di tempo dopo il quale un account può davvero essere considerato inattivo. Nel caso in cui un utente non configuri “Gestione account inattivo”, Google si riserva il diritto di eliminare l’account nel caso in cui rimanga inattivo per più di due anni.

Eredità digitale e deadbot: un rischio per la sicurezza?

Anche l’avvento dei sistemi di intelligenza artificiale generativa ha contribuito a cambiare il nostro rapporto con la morte. E le aziende che li sviluppano si sono spinte fino a cercare una soluzione pratica al dolore causato dalla scomparsa di una persona cara. Basti pensare alla rapida diffusione dei deadbot, ovvero dei chatbot che permettono ad amici e familiari di conversare con una persona defunta, simulandone la personalità. Uno strumento che, da un lato, può rivelarsi utile ai fini dell’elaborazione del lutto, ma dall’altro rappresenta un rischio notevole per la privacy e la sicurezza degli individui. 

Per permettere all’AI di interagire con un utente come farebbe una persona scomparsa, questa ha bisogno di attingere a una quantità notevole di informazioni legate alla sua identità digitale: account social, playlist preferite, registro degli acquisti da un e-commerce, messaggi privati, app di terze parti e molto altro ancora. Un uso smodato di dati sensibili che, allo stato attuale, non è regolamentato in alcun modo. 

E questo, al pari di quanto accade con l’eredità digitale, rappresenta un problema non indifferente per la sicurezza: come riferisce uno studio condotto dai ricercatori dell’Università di Torino, quando i dati del defunto non sono “sufficienti o adeguati per sviluppare un indice di personalità, vengono spesso integrati con dati raccolti tramite crowdsourcing per colmare eventuali lacune”. Così facendo, “il sistema può dedurre da questo dataset eterogeneo aspetti della personalità che non corrispondono o non rispondono pienamente agli attributi comportamentali della persona”. In questo caso, i deadbot “finiscono per dire cose che una persona non avrebbe mai detto e forniscono agli utenti conversazioni strane, che possono causare uno stress emotivo paragonabile a quello di rivivere la perdita”. Non sarebbe, quindi, solo la privacy dei defunti a essere in pericolo, ma anche la sicurezza dei loro cari ancora in vita. 

Pur non esistendo una legislazione specifica sul tema, l’AI Act dell’Unione Europea – una delle normative più avanzate sul tema – fornisce alcune disposizioni utili sulla questione, vietando “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole” e anche “l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che sfrutta le vulnerabilità di una persona fisica o di uno specifico gruppo di persone (…), con l’obiettivo o l’effetto di distorcere materialmente il comportamento di tale persona”. 

Due indicazioni che, di fatto, dovrebbero proibire l’immissione dei deadbot nel mercato europeo, ma che non forniscono alcuna soluzione utile alla questione della protezione dei dati personali di una persona defunta, che rimane ancora irrisolta. Nel sistema giuridico europeo la legislazione sulla protezione dei dati non affronta esplicitamente né il diritto alla privacy né le questioni relative alla protezione dei dati delle persone decedute. 

Il Regolamento Generale sulla Protezione dei Dati (GDPR), infatti, “non si applica ai dati personali delle persone decedute”, anche se “gli Stati membri possono prevedere norme riguardanti il trattamento dei dati personali delle persone decedute”. Una scelta considerata “coerente con il principio tradizionale secondo cui le decisioni di politica legislativa che incidono sul diritto di famiglia e successorio, in quanto settori caratterizzati da valori nazionali strettamente correlati alle tradizioni e alla cultura della comunità statale di riferimento, esulano dalla competenza normativa dell’Unione europea”. 

Non esistendo una legislazione valida a livello europeo, i governi nazionali hanno adottato approcci diversi alla questione. La maggior parte delle leggi europee sulla privacy, però, sostiene un approccio basato sulla “libertà dei dati”: paesi come Belgio, Austria, Finlandia, Francia, Svezia, Irlanda, Cipro, Paesi Bassi e Regno Unito, quindi, escludono che le persone decedute possano avere diritto alla privacy dei dati, sostenendo che i diritti relativi alla protezione dell’identità e della dignità degli individui si estinguono con la loro morte. 

Secondo questa interpretazione, le aziende tech potrebbero usare liberamente i dati delle persone decedute per addestrare un chatbot. Fortunatamente non è proprio così, considerando che in questi paesi entrano in gioco il reato di diffamazione, il diritto al proprio nome e alla propria immagine, o il diritto alla riservatezza della corrispondenza. Al contrario, invece, paesi come l’Estonia e la Danimarca prevedono che il GDPR si applichi anche alle persone decedute, a cui garantiscono una protezione giuridica per un limite preciso di tempo (10 anni dopo la morte in Danimarca, e 30 in Estonia). E così anche Italia e Spagna, che garantiscono una protezione dei dati dei defunti per un tempo illimitato. 

Pur mancando una legislazione europea uniforme, il GDPR lascia agli Stati membri la facoltà di regolare il trattamento dei dati personali delle persone defunte, e questo comporta differenze, anche sostanziali, delle legislazioni nazionali. Con l’avvento dell’AI e gli sviluppi rapidi che questa comporta, però, diventa sempre più necessario stilare una normativa chiara, precisa e uniforme sulla questione. Così da rispettare non solo la privacy dei nostri cari, ma anche il dolore per la loro perdita.

L'articolo Eredità digitale, che fine fanno i nostri dati dopo la morte? proviene da Guerre di Rete.

stakkastakka #7 - Metadati

3 Dicembre 2018 ore 01:33

POSTCAST

Puntata completa


NEWS, abbiamo parlato di:

Il trabiccolo della settimana:

Nuova rubrica di stakkastakka in cui presentiamo un cazzillo, aggeggio, affare... Insomma un coso!

Questa settimana abbiamo parlato di redshift. Uno strumento che vi permette di tenere al sicuro le due palle umide che avete attaccate alla scatola cranica.

Se volete approfondire l'argomento ecco un ottimo punto di partenza

APPROFONDIMENTO

Abbiamo parlato di metadati, quelle informazioni che caratterizzano le vostre comunicazioni e descrivono con chi avete parlato.

Rifletteteci: a volte non è necessario sapere cosa avete detto, ma basta anche solo sapere con chi avete parlato.

❌