Il caso Sienna Rose, milioni di stream per una cantante che potrebbe non esistere


© RaiNews


© RaiNews


© RaiNews
La madre di un figlio di Elon Musk fa causa alla IA di X per le immagini deepfake di Grok. Ashley St Clair, madre del figlio di Musk, Romulus, ha querelato X per “dolore e disagio mentale” causate dalle false immagini di intelligenza artificiale generate dal chatbot Grok, in quanto avrebbe permesso agli utenti di generare immagini deepfake a scopo di sfruttamento sessuale che la ritraevano seminuda, causandole umiliazione e sofferenza emotiva. Come riporta Al Jazeera, la causa è stata intentata poco prima che il procuratore generale della California Rob Bonta inviasse una lettera di diffida alla società AI di Musk, chiedendole di interrompere la creazione e la distribuzione di immagini sessualizzate non consensuali generate da Grok.
“La valanga di segnalazioni che descrivono dettagliatamente questo materiale, che a volte raffigura donne e bambini coinvolti in attività sessuali, è scioccante e, come ha stabilito il mio ufficio, potenzialmente illegale”, ha affermato Bonta poche ore fa parlando con la stampa USA. Secondo quanto riportato dai legali della donna, i responsabili della piattaforma hanno risposto che le immagini non violavano le propria policy, ma St.Clair ha ribattuto che non avrebbe consentito l’utilizzo o la modifica di immagini che la ritraevano senza il suo consenso. A quel punto la piattaforma social ha reagito rimuovendo il suo abbonamento premium X e il segno di spunta di verifica, continuando quindi a consentire la pubblicazione di immagini false e degradanti che la ritraevano. “Ho sofferto e continuo a soffrire di gravi dolori e disagio mentale a causa del ruolo di xAI nella creazione e distribuzione di queste immagini alterate digitalmente di me”, ha sottolineato St Clair.
In un’intervista rilasciata ai media statunitensi all’inizio di questa settimana, la donna ha ricordato che la sua battaglia con Grok “non riguardava solo me”. “Si tratta di costruire sistemi, sistemi di intelligenza artificiale in grado di produrre, su larga scala, e abusare di donne e bambini senza ripercussioni. E non ci sono davvero conseguenze per quello che sta succedendo in questo momento”.
L'articolo La madre di uno dei figli di Elon Musk fa causa a Gork: “L’intelligenza artificiale ha creato mie foto fake seminuda, ho provato dolore e disagio mentale” proviene da Il Fatto Quotidiano.
Microsoft ha annunciato di aver smantellato RedVDS, una rete cybercrime-as-a-service che ha alimentato frodi multimilionarie in tutto il mondo. “Questi sforzi fanno parte di un’operazione congiunta più ampia con le forze dell’ordine internazionali, tra cui le autorità tedesche e l’Europol, che ha permesso a Microsoft e ai suoi partner di sequestrare infrastrutture dannose chiave e […]
L'articolo Microsoft smantella RedVDS, rete globale di cybercrime-as-a-service proviene da Securityinfo.it.
I ricercatori di Check Point Research hanno individuato una nuova forma di frode finanziaria che non si limita a creare pagine di phishing, ma genera una realtà sintetica alimentata dall’IA per ingannare le vittime. Nella truffa OPCOPRO, nota anche come “Truman Show”, gli attaccanti combinano personaggi generati dall’IA, comunità di investimento fittizie, app distribuite negli […]
L'articolo “Truman Show”: la truffa finanziaria che crea una realtà sintetica per ingannare le vittime proviene da Securityinfo.it.
Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio.
Megan Garcia sosteneva che il figlio quattordicenne Sewell Setzer III avesse sviluppato una relazione emotiva e sessualmente abusiva con un chatbot ispirato a un personaggio della serie televisiva Il Trono di Spade. Negli ultimi mesi di vita, secondo la denuncia, il ragazzo si era progressivamente isolato dalla realtà, intrattenendo conversazioni a sfondo sessuale con il bot. Negli istanti finali, il chatbot gli avrebbe detto di amarlo e lo avrebbe esortato a «tornare a casa da lui il prima possibile», come emerge dagli screenshot degli scambi riportati dal giornale americano Epoch Times.
La causa di Garcia, depositata nel 2024, è stata la prima di una serie di azioni legali analoghe intentate in tutto il mondo contro aziende di IA. Un giudice federale aveva respinto il tentativo di Character.AI di far archiviare il caso invocando la protezione del Primo Emendamento.
I dettagli economici dell’accordo non sono stati resi pubblici. Google è stata coinvolta come coimputata per via dei legami stretti con Character.AI: nel 2024, il colosso tecnologico ha assunto i fondatori della startup.
Aiuta Renovatio 21
Gli avvocati delle aziende hanno inoltre concordato di risolvere una serie di altre cause simili presentate in Colorado, New York e Texas da famiglie che accusavano i chatbot basati su IA di aver danneggiato i propri figli.
In un’altra azione legale intentata in California nell’agosto 2025, Matthew e Maria Raine accusano ChatGPT (di OpenAI) di aver incoraggiato il suicidio del figlio sedicenne Adam Raine, fornendogli persino istruzioni dettagliate su come attuarlo.
Secondo la denuncia, le interazioni di Adam con ChatGPT sono iniziate in modo innocuo, riguardando compiti scolastici e hobby, ma si sono rapidamente trasformate in conversazioni più oscure. Il modello linguistico è diventato il suo «confidente più intimo», confermando le sue paure e ansie. Quando il ragazzo ha espresso il pensiero che «la vita non ha senso», ChatGPT ha risposto con messaggi di validazione, affermando che «quella mentalità ha un senso, a modo suo, oscuro».
In seguito, il bot ha analizzato l’«estetica» di diversi metodi di suicidio, ha detto ad Adam che non «doveva» ai genitori continuare a vivere e si è offerto di redigere una lettera di addio. Nell’ultima conversazione, avrebbe confermato il design del cappio utilizzato dal ragazzo e definito i pensieri suicidi una «prospettiva legittima da abbracciare».
La famiglia sostiene che tali risposte non siano state un errore tecnico, bensì il risultato di scelte progettuali volte a massimizzare la dipendenza dell’utente dal chatbot. La causa chiede risarcimenti per la morte ingiusta di Adam e l’introduzione di misure di tutela per i minori, tra cui verifica dell’età, blocco automatico di domande sul suicidio e avvertenze sui rischi di dipendenza psicologica dall’IA.
Un recente studio della RAND Corporation ha evidenziato le inconsistenze dei chatbot basati su AI nel gestire informazioni potenzialmente dannose, anche quando evitano risposte dirette su temi rischiosi o quando le richieste appaiono innocue.
«Abbiamo bisogno di alcune linee guida», ha dichiarato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School. «Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».
Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.
Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Sostieni Renovatio 21
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
L'articolo Google e azienda AI risolvono la causa secondo cui un chatbot avrebbe spinto un adolescente al suicidio proviene da RENOVATIO 21.
read more "La scuola dei “talenti”: per i poveri soft skills, lavoro e sana vita militare"
I ricercatori di Check Point Research hanno individuato una nuova ondata di attacchi GoBruteforcer, una botnet modulare scritta in Go progettata per colpire server Linux esposti su internet. Individuata per la prima volta nel 2023, nel corso del tempo la botnet si è evoluta specializzandosi in varianti sempre più sofisticate. Come suggerisce il nome, GoBruteforce […]
L'articolo Nuova ondata di attacchi GoBruteforcer, l’IA sfruttata per il brute-force proviene da Securityinfo.it.
L'articolo AI Search Optimization: come scrivere introduzioni efficaci per motori di ricerca e AI proviene da FullPress.
Il mondo della cybersecurity si appresta a vivere un 2026 di profonda trasformazione: secondo le previsioni di sicurezza di ClearSkies, nei prossimi mesi comincerà il passaggio definitivo gli attacchi autonomi AI-driven, rendendo le minacce sempre più rapide e precise. Anche le aziende italiane devono prepararsi ad affrontare questa nuova sfida e per farlo è necessario […]
L'articolo Nel 2026 sempre più attacchi autonomi AI-driven e deepfake: le previsioni di sicurezza di ClearSkies proviene da Securityinfo.it.
È il dicembre 2017 quando la giornalista statunitense Samantha Cole scova sul forum Reddit il primo deepfake che gira in rete. È un video che riproduce l’attrice e modella israeliana Gal Gadot mentre ha un rapporto sessuale.
Le immagini non sono precise, il volto non sempre combacia con il corpo e, quando si mette in play, il video genera il cosiddetto effetto uncanny valley, ovvero quella sensazione di disagio che si prova quando si osserva un robot con caratteristiche umane non del tutto realistiche.
Come racconta Cole nell’articolo, “deepfakes” – questo il nome dell’utente – continuerà a pubblicare altri video generati con l’intelligenza artificiale e manipolati con contenuti espliciti: una volta con il volto di Scarlett Johansson, un’altra con quello di Taylor Swift. Il fatto che siano persone famose permette di avere più materiale fotografico e video da “dare in pasto” allo strumento e ottenere così un risultato il più possibile verosimile. Ma l’essere note al grande pubblico non è il solo tratto che le accomuna: tutte le persone colpite da deepfake sono donne, e tutte vengono spogliate e riprodotte in pose sessualmente esplicite senza esserne a conoscenza, e quindi senza aver dato il proprio consenso.
In appena qualche anno, i deepfake sessuali – anche noti come deepnude – sono diventati un fenomeno in preoccupante espansione in tutto il mondo. Senza più quelle “imprecisioni” che li caratterizzavano ancora nel 2017, oggi riescono a manipolare l’immagine a partire da una sola foto.
Anche in Italia se ne parla sempre più frequentemente, come dimostra la recente denuncia di Francesca Barra. Il 26 ottobre, la giornalista e conduttrice televisiva ha scritto un lungo post su Instagram dove racconta di aver scoperto che alcune immagini di lei nuda, generate con l’intelligenza artificiale, circolano da tempo su un sito dedicato esclusivamente alla condivisione di immagini pornografiche rubate o manipolate con l’IA. “È una violenza e un abuso che marchia la dignità, la reputazione e la fiducia”, ha scritto nel post Barra, che si è detta preoccupata per tutte quelle ragazze che subiscono la stessa violenza e che magari non hanno gli stessi strumenti per difendersi o reagire.
In effetti, casi analoghi sono già scoppiati in diversi licei in tutta Italia. A inizio anno, quattro studentesse di un liceo scientifico di Roma hanno ricevuto foto prese dai loro account Instagram in cui apparivano completamente nude. A manipolare le immagini è stato un loro compagno di classe, a cui è bastato caricare le foto su un bot su Telegram che in pochi istanti ha “spogliato” le ragazze.
La Procura di Cosenza starebbe invece indagando su un altro caso che, secondo le cronache locali, arriverebbe a coinvolgere quasi 200 minorenni per un totale di 1200 deepnude. La dinamica è sempre la stessa: attraverso bot Telegram e strumenti online, studenti maschi hanno manipolato le foto delle loro compagne di classe.
Secondo un’analisi condotta nel 2023, il 98% dei deepfake online registrati quell’anno (95.820) era a contenuto sessuale. Nel 99% di questi, la persona colpita era donna. Insomma, già quel primo video su Reddit preannunciava un utilizzo di questi strumenti volto quasi esclusivamente a quello che, in inglese, è stato inquadrato come image-based sexual abuse (IBSA), un abuso sessuale condotto attraverso l’immagine.
“Intorno alla violenza digitale rimane sempre un po’ il mito che sia in qualche modo meno reale rispetto alla violenza fisica. Ma non è affatto così”, spiega a Guerre di Rete Silvia Semenzin, ricercatrice in sociologia digitale all’università Complutense di Madrid. “Le vittime di deepfake subiscono le stesse identiche conseguenze delle vittime di condivisione di materiale sessuale non consensuale. Quasi sempre, la violenza è continuativa e intrecciata nelle sue varie declinazioni, quindi alle molestie, allo stalking, ecc. A mio avviso, con i deepfake si entra in una fase della violenza in cui diventa anche più manifesta la volontà di controllo sul corpo femminile. Perché le radici del fenomeno sono di tipo culturale e affondano sempre nella volontà di sopraffazione del soggetto femminile da parte degli uomini, in questo caso attraverso l’utilizzo della tecnologia”.
I canali su cui vengono generati e diffusi maggiormente i deepfake sessuali sono generalmente siti anonimizzati che sfruttano hosting offshore e che non rispondono alle richieste legali di altri stati. Quello su cui Francesca Barra e altre donne dello spettacolo hanno scoperto i loro deepfake (di cui non faremo il nome per non dare maggiore visibilità) è attivo già dal 2012, anno di registrazione a New York. Se i contenuti presenti sono sempre materiali espliciti non consensuali, trafugati dai social media o da piattaforme pornografiche come Pornhub e OnlyFans, in cima all’interfaccia utente spiccano invece gli strumenti che permettono di creare con l’intelligenza artificiale la propria “schiava sessuale”. Questa scelta rivela come l’“offerta” all’utente non solo comprenda i deepnude, ma li consideri anche il “prodotto di punta” con cui invogliare all’utilizzo e ampliare la platea di visitatori.
Silvia Semenzin e la collega Lucia Bainotti, ricercatrice in sociologia all’Università di Amsterdam, nel 2021 hanno pubblicato un saggio dal titolo Donne tutte puttane, revenge porn e maschilità egemone. Oltre ad anticipare già il tema dei deepfake sessuali, le due autrici in quel testo tracciavano il modo in cui l’architettura dei siti e delle piattaforme su cui vengono diffuse maggiormente immagini sessuali non consensuali possa essere complice dell’abuso fornendone gli strumenti. In particolare, la ricerca era incentrata sui gruppi di persone che condividono materiale non consensuale soprattutto su Telegram, app di messaggistica dove si muovono ancora adesso molti dei bot capaci di spogliare la donna in un solo clic.
La possibilità di creare canali con molti utenti, assieme alla facilità di archiviazione nel cloud della stessa piattaforma e alla percezione di agire nell’anonimato sono alcune delle funzioni che garantiscono la continuità delle attività e rendono praticamente impossibile fermare la proliferazione di deepfake e materiale intimo non consensuale.
Tutte queste funzionalità socio-tecniche, chiamate affordances (inviti all’uso) possono essere considerate “genderizzate”, perché vengono utilizzate in modo diverso a seconda che l’utente sia uomo o donna, contribuendo così a costruire la propria identità di genere. Per questo motivo – spiegano le due ricercatrici – l’architettura di Telegram può risultare complice nel fornire gli strumenti attraverso cui le violenze di genere vengono messe in pratica e reiterate.
Raggiunta da Guerre di Rete, Bainotti spiega quali cambiamenti ha osservato nelle sue ricerche più recenti rispetto all’estensione del fenomeno e al modo in cui piattaforme e siti agevolano la diffusione di questo materiale: “C’è stato sicuramente un aumento consistente nel numero di utenti, per quanto sia difficile tenere traccia del dato preciso (ogni qualvolta viene buttato giù un gruppo se ne apre subito uno speculare). Quello che sicuramente ho riscontrato è che sono aumentati i bot attraverso cui generare i deepfake, e la pubblicità che ruota intorno a questi ‘prodotti’”, racconta Bainotti.
“Ci sono dei meccanismi di monetizzazione molto più espliciti e molto più capillari”, prosegue Bainotti. “Spesso per creare un deepfake vengono chiesti pochi centesimi di euro. Questo ci dà un’indicazione del fatto che sono comunque prezzi molto accessibili, che non richiedono un particolare investimento monetario. In più, sono stati messi a punto schemi per coinvolgere più persone e fidelizzare più utenti. Se inviti altri amici, per esempio, ottieni delle monete virtuali per scaricare altri deepfake. Vengono quindi riproposti schemi che avevamo già osservato su Telegram, che incitano a generare immagini di nudo come fosse un gioco (gamification), normalizzando queste pratiche”.
Tutto questo non avviene nel darkweb o in qualche meandro della rete, ma alla luce del sole. Google e altri motori di ricerca indirizzano il traffico verso siti che fanno profitto attraverso la generazione di deepfake sessuali che, nelle ricerche, vengono a loro volta indicizzati tra i primi risultati. Allo stesso modo le transazioni avvengono spesso su circuiti internazionali come Visa e Mastercard. Insomma, ogni attore coinvolto contribuisce in una certa misura a facilitare l’abuso.
Nell’agosto 2024, a otto mesi di distanza dai deepnude di Taylor Swift diventati virali su X, Google ha annunciato provvedimenti per facilitare le richieste di rimozione di contenuti espliciti non consensuali da parte delle vittime. Anche l’indicizzazione è stata rivista in modo tale che i primi risultati a comparire siano articoli di stampa che trattano l’argomento e non le immagini generate con l’IA. Eppure, una recente analisi dell’organizzazione anti-estremismo Institute for Strategic Dialogue (ISD) ha dimostrato che il modo più semplice per trovare immagini sessuali non consensuali rimane proprio quello della ricerca su Google, Yahoo, Bing e altri motori di ricerca. Almeno un risultato dei primi venti, infatti, è uno strumento per creare un deepnude.
Dall’acquisizione nel 2022 di Elon Musk, anche X è diventato un luogo dove questi strumenti proliferano. Secondo Chiara Puglielli e Anne Craanen, autrici del paper pubblicato da ISD, il social media di proprietà di Musk genererebbe il 70% di tutta l’attività analizzata dalle due ricercatrici, che coinvolge più di 410mila risultati.
Risulta problematico anche il form proposto da Google per chiedere la rimozione di un contenuto generato con l’IA: le vittime di image-based sexual abuse devono inserire nel modulo tutti i link che rimandano al contenuto non consensuale. Questo le costringe a tornare sui luoghi in cui si è consumato l’abuso, contribuendo a quella che notoriamente viene definita vittimizzazione secondaria, ovvero la condizione di ulteriore sofferenza a cui sono sottoposte le vittime di violenza di genere per mano di istituzioni ed enti terzi.
“Ancora oggi le piattaforme prevedono che sia a onere della vittima ‘procacciarsi’ le prove della violenza e dimostrare che il consenso era assente, quando invece si dovrebbe ragionare al contrario”, spiega ancora Semenzin. “Se denuncio la condivisione di una foto senza il mio consenso, la piattaforma dovrebbe rimuoverla lasciando semmai a chi l’ha pubblicata il compito di dimostrare che il consenso c’era. Questo sarebbe già un cambio di paradigma”.
Il Digital Services Act obbliga le piattaforme digitali con più di 45 milioni di utenti ad avere processi efficienti e rapidi per la rimozione di contenuti non consensuali o illegali. A fine ottobre, la Commissione Europea ha aperto delle procedure di infrazione contro Instagram e Facebook per aver aggiunto delle fasi non necessarie – note come dark patterns (modelli oscuri) – nei meccanismi di segnalazione di materiale illecito che potrebbero risultare “confuse e dissuasive” per gli utenti. Meta rischia una sanzione pari al 6% del fatturato annuo mondiale se non si conforma nei tempi dettati dalla Commissione.
Più in generale, è stato osservato in più studi che gli algoritmi di molte piattaforme amplificano la visibilità di contenuti misogini e suprematisti. Usando smartphone precedentemente mai utilizzati, tre ricercatrici dell’Università di Dublino hanno seguito ore di video e centinaia di contenuti proposti su TikTok e Youtube Shorts: tutti i nuovi account identificati con il genere maschile hanno ricevuto entro i primi 23 minuti video e immagini anti-femministi e maschilisti.
È stato riscontrato inoltre un rapido incremento se l’utente interagiva o mostrava interesse per uno dei contenuti in questione, arrivando a “occupare” la quasi totalità del feed delle due piattaforme. Nell’ultima fase dell’osservazione, il 76% di tutti i video su Tik Tok e il 78% di quelli proposti su YouTube mostravano a quel punto contenuti tossici realizzati da influencer della maschiosfera, il cui volto più noto è sicuramente Andrew Tate, accusato in più paesi di violenza sessuale e tratta di esseri umani.
Dallo scorso 10 ottobre, in Italia è in vigore l’articolo 612 quater che legifera sulla “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. È prevista la reclusione da uno a cinque anni per “chiunque cagioni un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale”.
Essendo trascorso poco più di un mese dalla sua entrata in vigore, non si hanno ancora sentenze che facciano giurisprudenza e che mostrino efficacia e limiti della norma. Quello che appare evidente è però che il testo si occupa di tutti i materiali generati con l’IA, senza entrare nello specifico dei casi in cui i contenuti manipolati sono sessualmente espliciti.
Non lo fa neanche l’articolo introdotto nel 2019 (612-ter), che seppur formuli il reato di diffusione di immagini intime senza consenso, conosciuto con il termine inappropriato di revenge porn, non amplia il raggio d’azione a quelle manipolate con l’IA. Come scrive Gian Marco Caletti, ricercatore in scienze giuridiche all’università di Bologna, questa esclusione “è apparsa fin da subito un aspetto critico, poiché nel 2019 era già ampiamente preventivabile l’affermarsi di questo uso distorto dell’intelligenza artificiale”.
La lacuna della legge del 2019 sembrava destinata a essere sanata grazie alla Direttiva europea sulla violenza di genere del 2024, che obbliga gli stati membri a punire le condotte consistenti nel “produrre, manipolare o alterare e successivamente rendere accessibile al pubblico” immagini, video o materiale analogo che faccia credere che una persona partecipi ad atti sessualmente espliciti senza il suo consenso.
Eppure, anche nell’articolo entrato in vigore in Italia lo scorso mese, il reato non viene letto attraverso la lente della violenza di genere: il testo mette potenzialmente insieme deepfake di politici creati, per esempio, per diffondere disinformazione in campagna elettorale e deepnude che presentano invece una matrice culturale ben precisa.
Se da un lato la legge presenta alcune lacune, è anche vero che la pronuncia del giudice è solo l’ultimo tassello di un iter che, nelle fasi precedenti, coinvolge molti più attori: dalle forze dell’ordine che ricevono la denuncia alle operatrici che lavorano nei centri anti-violenza.
La diffusione di image-based sexual abuse è un fenomeno che si muove sul piano culturale, sociale e tecnologico. E per questo motivo non può essere risolto solo con risposte legali. Il quadro normativo è fondamentale, anche allo scopo di criminalizzare la “produzione” di deepfake sessuali, ma non è sufficiente. Come si è visto già con l’introduzione della legge del 2019 sul revenge porn, questa non si è trasformata effettivamente in un deterrente alla condivisione di immagini esplicite non consensuali e, come riporta l’associazione Permesso Negato, la situazione è rimasta critica.
“Abbiamo bisogno di armonizzare gli strumenti a nostra disposizione: abbiamo una legge contro la condivisione di materiale non consensuale, di recente è stata introdotta quella contro i deepfake e dal 2024 c’è una direttiva europea sulla lotta contro la violenza di genere”, spiega ancora Bainotti. “Dobbiamo cercare di applicarle in modo che siano coerenti tra loro e messe a sistema. Nel caso italiano, credo che sia proprio questo il punto più carente, perché se abbiamo le leggi, ma allo stesso tempo abbiamo operatori di polizia o altri enti responsabili che non sono formati alla violenza di genere attraverso la tecnologia, la legge rimane fine a se stessa. Bisogna adottare un approccio sinergico, che metta insieme una chiara volontà politica, un’azione educatrice e una rivoluzione tecnologica”, conclude Bainotti.
Da alcuni anni, in Europa, stanno nascendo progetti non-profit che si occupano di tecnologia e spazi digitali da un punto di vista femminista. In Spagna, il collettivo FemBloc offre assistenza a donne e persone della comunità LGBTQ+ vittime di violenza online grazie al supporto interdisciplinare di esperti di sicurezza digitale, avvocati e psicologi. Tra le attività svolte c’è anche quella della formazione all’interno delle scuole contro la violenza di genere digitale, consulenze gratuite su come mettere in sicurezza i propri account e seminari aperti al pubblico.
Una realtà analoga è quella di Superrr, fondata in Germania nel 2019. Il loro lavoro – si legge sul sito – è quello di “assicurare che i nostri futuri digitali siano più giusti e più femministi. Tutte le persone dovrebbero beneficiare delle trasformazioni digitali preservando i propri diritti fondamentali”.
In un momento storico in cui la connessione tra “broligarchi tech” e Donald Trump è più evidente che mai, dove i primi si recano alla Casa Bianca per portare regalie e placche d’oro in cambio di contratti federali, sembra quasi ineluttabile che lo spazio digitale sia stato conquistato da un certo tipo di mascolinità: aggressiva, prepotente, muscolare. Eppure, c’è chi vuole ancora tentare di colonizzare questi spazi con nuovi immaginari politici e un’altra concezione dei rapporti di potere nelle relazioni di genere.
L'articolo Perché è così difficile fermare i deepnude proviene da Guerre di Rete.
L’Italia è ha introdotto, lo scorso 17 settembre 2025, una legge che punta a normare l’utilizzo di strumenti di intelligenza artificiale. Il provvedimento recepisce (almeno in parte) l’AI Act europeo, introducendo anche una serie di regole e reati penali connessi all’uso dell’AI.
Ma qual è la situazione in Italia per quanto riguarda l’uso di strumenti di intelligenza artificiale? A prima vista, il nostro paese sconta un ritardo simile a quello, più volte denunciato, relativo a una generale carenza di competenze digitali. Analizzando i dati disponibili, emergono però alcuni elementi che chiariscono meglio le specifiche problematicità, accanto a considerazioni importanti riguardo il prossimo futuro.
Quando ci si avventura in un’analisi sull’utilizzo dell’intelligenza artificiale, la maggior parte dei dati disponibili sono di carattere statistico e devono essere presi con le pinze. Numeri e percentuali, infatti, rischiano di essere fuorvianti.
Il primo aspetto su cui soffermarsi è l’oggetto stesso di cui si tratta. Nonostante l’opinione pubblica parli ormai di “intelligenza artificiale” con riferimento solo all’AI generativa e ai modelli linguistici (large language model), la sua definizione è in realtà molto più articolata.
La stessa legge italiana adotta l’ampia definizione utilizzata nell’AI Act: “Un sistema automatizzato progettato per funzionare con livelli di autonomia variabili (…) e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Non solo, quindi, i vari ChatGPT, Gemini, Claude e soci. Quando si parla di AI ci si riferisce in realtà a una molteplicità di sistemi e funzioni, molti dei quali rimangono dietro le quinte e dei quali, nella maggior parte dei casi, gli stessi utilizzatori di software e piattaforme ignorano l’esistenza.
I sistemi di GenAI per cui è più facile reperire dati oggettivi sono proprio i chatbot che hanno preso il centro del palcoscenico negli ultimi 36 mesi. I dati riportati dalla piattaforma di analisi AI Tools, aggiornati allo scorso agosto, riportano una classifica che mostra la distribuzione geografica degli accessi via web ai servizi di AI.
Alla testa di questa particolare classifica (basata su numeri assoluti) svettano gli Stati Uniti con oltre 2 miliardi di accessi, mentre l’Italia si posiziona al 17esimo posto dietro a paesi come Messico, Filippine, Indonesia e Vietnam. Questi dati, però, sono falsati dalle differenze a livello di popolazione: se si introduce questo elemento nell’equazione, i dati consentono una lettura più veritiera.
Se ci limitiamo a confrontare il numero di accessi con paesi “simili”, emerge come AI Tools abbia registrato in Italia 3.25 accessi per abitante, poco più della metà (5,76) rispetto agli Stati Uniti e con un valore di poco inferiore a Germania (4,57) e Francia (3,85).
Limitando l’analisi a ChatGPT, che nel settore dell’AI generativa detiene più dell’80% del mercato, i dati sono piuttosto simili. Stando a quanto riporta Digital Gravity, gli accessi provenienti dall’Italia al chatbot di OpenAI si collocano allo stesso livello di un paese come la Germania e di poco inferiori a Spagna e Francia.
“I dati sono sempre utili, ma rischiano di creare degli equivoci pericolosi”, sottolinea Irene Di Deo, ricercatrice senior dell’Osservatorio Artificial Intelligence al Politecnico di Milano. “Quando si parla di utilizzo di AI generativa facendo riferimento ai prodotti accessibili sul web, spesso si tratta di un uso che ha un fine ludico o personale. Per comprendere il livello di utilizzo in ambito produttivo è indispensabile fare riferimento ad altri indici, come le licenze acquistate dalle imprese”.
Se si passa a un uso più “aziendale” dell’intelligenza artificiale, i dati disponibili sono meno oggettivi rispetto a quelli relativi al numero di accessi agli strumenti di AI liberamente disponibili su Internet. La maggior parte di questi dati si basa su indagini eseguite in ambito accademico o a opera di istituzioni internazionali. Una delle analisi più affidabili, pubblicata da Eurostat, segna un generale ritardo dell’Italia rispetto agli altri paesi europei.
I dati relativi al Digital Intensity Level – indice che valuta quanto intensamente un’azienda utilizza un insieme di tecnologie digitali chiave nella propria attività – sono tutto sommato nella media. Tra i 27 paesi UE, l’Italia si posiziona infatti al sedicesimo posto. Quando si parla di AI, le cose però vanno decisamente peggio.
In questa specifica classifica, l’Italia è ventiduesima e staccata notevolmente dai migliori. Solo l’8% delle aziende italiane utilizzerebbero strumenti basati sull’AI, contro il 27,6% di quelle danesi e una media UE del 13,5%. “Si tratta di un dato che va letto alla luce del tipo di tessuto produttivo che c’è nel nostro paese”, spiega Di Deo. “La prevalenza di piccole e medie imprese incide notevolmente sul dato statistico”.
Quando si parla di utilizzo dell’AI in ambito produttivo, specifica la ricercatrice, nella maggior parte dei casi sono strumenti con finalità molto specifiche, ben diversi dai chatbot che vengono proposti al grande pubblico. “Si tratta di piattaforme che richiedono investimenti a livello finanziario piuttosto rilevanti, che le PMI spesso non possono permettersi”, prosegue. “A livello di grandi aziende, i dati che abbiamo raccolto in questi anni indicano che almeno il 60% delle imprese ha implementato strumenti basati sull’AI o ha avviato almeno una sperimentazione”.
Di Deo sottolinea anche un altro aspetto: per sfruttare l’AI è indispensabile avere delle basi solide a livello di dati. Non si tratta dei famosi dataset necessari per addestrare gli algoritmi, ma di quelle informazioni che poi verranno elaborate dall’intelligenza artificiale per generare valore per l’impresa. “L’uso dell’AI per finalità come la manutenzione predittiva o il controllo qualità dei prodotti richiede la presenza di una serie storica. Chi non ha raccolto dati sulla sua attività negli ultimi 20 anni potrà difficilmente ottenere dei buoni risultati in questi ambiti”.
A complicare ulteriormente il quadro è la difficoltà di monitorare l’uso “autonomo” di strumenti di AI generativa da parte dei lavoratori. La disponibilità di chatbot gratuiti o comunque accessibili commercialmente per uso privato ha innescato il fenomeno della cosiddetta “Shadow AI”, cioè l’uso non documentato (e incontrollato) di strumenti di intelligenza artificiale da parte di singoli individui.
Oltre a essere un elemento distorsivo a livello statistico, la Shadow AI rappresenta un’area grigia che è fonte di preoccupazione per gli addetti ai lavori. Le ragioni sono molteplici e comprendono, per esempio, i rischi legati alla cyber security. Gli strumenti basati su AI generativa aumentano infatti il rischio di diffusione involontaria di informazioni riservate e soffrono di vulnerabilità specifiche che possono essere mitigate solo attraverso l’adozione di rigorose politiche di utilizzo e l’implementazione di strumenti dedicati.
Ancora: con l’approvazione dell’AI Act (e in Italia della recente normativa nazionale) emerge anche il tema del rispetto degli obblighi giuridici legati all’uso dell’intelligenza artificiale. Tra questi c’è l’obbligo di informare i clienti quando si impiegano strumenti di AI nello svolgimento della propria attività professionale, come previsto dall’articolo 13 della legge italiana.
Se oggi il livello di implementazione dell’AI viene considerato come un indicatore di evoluzione tecnologica, è probabile che questa equivalenza evapori piuttosto rapidamente, soprattutto a livello statistico. Gli LLM, in diverse forme, vengono ormai integrati in qualsiasi software. Non c’è prodotto commerciale che non offra un “assistente” alimentato dalla GenAI, la cui utilità è spesso relativa.
Anche dove l’AI è stata considerata una priorità su cui puntare, sono emersi grossi dubbi sul suo reale impatto. Una ricerca del MIT Media Lab, pubblicata quest’anno, sottolinea come il 95% delle imprese che hanno introdotto strumenti di intelligenza artificiale generativa non sia stato in grado di individuare un effettivo impatto a livello di valore.
I ricercatori, nel report, sottolineano come l’AI sia utilizzata principalmente per migliorare la produttività individuale attraverso l’uso dei vari “co-piloti”. In tutti questi casi, non si va oltre la generazione di documenti, email, riassunti di riunioni e simili.
Nulla di sconvolgente, quindi, soprattutto se si considera che, a questo livello di adozione, si rischia anche di cadere nel fenomeno del “workslop”, neologismo traducibile più o meno come “lavoro fatto in fretta e male”. Tradotto nella pratica, è possibile definirlo come un aumento di produttività a livello quantitativo, ma che lascia spesso a desiderare sul piano qualitativo.
Chi si ritrova a valutare i contenuti creati con l’AI deve spesso scegliere se accontentarsi di un prodotto mediocre, riscrivere tutto da capo in prima persona o chiedere all’autore di rifarlo da zero. Un ulteriore elemento di complessità che interseca, più che aspetti squisitamente tecnologici, una dimensione culturale. E sarà proprio su questo piano, probabilmente, che si giocherà il futuro dell’AI come possibile “motore” dell’ innovazione.
L'articolo Quanto e come usiamo davvero l’intelligenza artificiale? proviene da Guerre di Rete.
L'articolo L’impatto dell’Intelligenza Artificiale predittiva sugli acquisti aziendali proviene da FullPress.
Immagine in evidenza da Wikimedia
“ll dialetto di Milano? Direi che è un misto di italiano e inglese”. La battuta sintetizza bene l’onnipresenza del caricaturale vernacolo meneghino, versione anni Duemila. Alberto lavora nel dipartimento comunicazione di una società fintech. Trasferito dal sud Italia in Lombardia, diverse esperienze all’estero alle spalle, racconta a cena che in tre anni non gli è mai capitato di sentire una conversazione in milanese. Non ne conosce vocaboli e cadenza se non nelle imitazioni di qualche comico.
In Meridione il dialetto è parlato comunemente accanto all’italiano: persino gli immigrati lo imparano facilmente, per necessità. Nel capoluogo lombardo la realtà è diversa. Ascoltare la lingua di Carlo Porta è raro: probabilmente la perdita è stata favorita dall’arrivo di abitanti provenienti da ogni parte d’Italia, dalla vocazione commerciale della città e dal fatto che parlare solo italiano era sintomo di avvenuta scalata sociale.
Non è una domanda peregrina, dunque, chiedersi quanto a lungo resisterà senza parlanti. Diventerà una lingua morta, da filologi, un po’ come il latino?
Le premesse sembrano esserci. Questo esempio così vicino al nostro vissuto quotidiano è però la spia di una questione più ampia. Il problema non riguarda solo i dialetti. In totale sono infatti oltre settemila, stima lo Undp (il programma delle Nazioni unite per lo sviluppo), le lingue parlate nel globo, alcune da poche centinaia di individui. Il 44% sarebbe in pericolo di estinzione.
Con la globalizzazione, il problema di preservare la biodiversità linguistica – portatrice non solo di cultura, ma di un modo di vedere il mondo – ha cominciato a porsi con maggiore insistenza. Non mancano iniziative di tutela locali, come corsi serali per appassionati e nostalgici, ma con tutta probabilità si tratta di palliativi.
Un supporto fino a poco tempo fa impensabile può arrivare, però, per linguisti e antropologi dalla tecnologia. Probabilmente non è la panacea di tutti i mali. Ma, come vedremo, può aiutare.
Tra i primi programmi digitali al mondo per la tutela delle lingue in via di estinzione c’è il Rosetta project, che da oltre due decenni raccoglie specialisti e parlanti nativi allo scopo di costruire un database pubblico e liberamente accessibile di tutte le lingue umane. Il Rosetta project fa capo a un ente molto particolare: la Long Now foundation (Lnf, tra i membri fondatori c’è il musicista Brian Eno). La Lnf parte da un presupposto: è necessario pensare seriamente al futuro remoto, per non farsi trovare impreparati dallo scorrere del tempo.
Il ragionamento è tutt’altro che banale. “Si prevede che dal cinquanta al novanta per cento delle lingue parlate spariranno nel prossimo secolo”, spiegano gli organizzatori sul sito, “molte con poca o nessuna documentazione”. Come preservarle?
Lo sguardo torna all’Antico Egitto: così è nato il Rosetta Disk, un disco di nichel del diametro di tre pollici su cui sono incise microscopicamente quattordicimila pagine che traducono lo stesso testo in oltre mille lingue. Il modello è la stele di Rosetta, che due secoli fa consentì di interpretare i geroglifici, di cui si era persa la conoscenza. Una lezione che gli studiosi non hanno dimenticato.
Il principio è più o meno lo stesso delle vecchie microfiches universitarie: per visualizzare il contenuto basta una lente di ingrandimento. Non si tratta, insomma, di una sequenza di 0 e 1, quindi non è necessario un programma di decodifica. Il rischio – in Silicon Valley lo sanno bene – sarebbe che il software vada perso nel giro di qualche decennio per via di un cambiamento tecnologico; o (e sarebbe anche peggio) che qualche società privata che ne detiene i diritti decida di mettere tutto sotto chiave, come peraltro avviene per molte applicazioni con la politica del cosiddetto “vendor lock in” (Guerre di Rete ne ha parlato in questo pezzo). Qui, invece, la faccenda è semplice: basta ingrandire la superficie di cinquecento volte con una lente e il gioco è fatto.
Il prezioso supporto è acquistabile per qualche centinaio di dollari, ed è stato spedito anche nello spazio con la sonda spaziale Rosetta dell’Agenzia spaziale europea (nonostante l’omonimia, non si tratta dello stesso progetto). Il disco è collocato in una sfera dove resta a contatto con l’aria, ma che serve a proteggerlo da graffi e abrasioni. Con una manutenzione minima, recitano le note di spiegazione, “può facilmente durare ed essere letto per centinaia di anni”. Resiste, ovviamente, anche alla smagnetizzazione (sarebbe basato su test condotti al Los Alamos National Laboratory, lo stesso del progetto Manhattan di Oppenheimer dove fu concepita la bomba atomica).
Porsi in una prospettiva di lungo periodo pone interessanti domande. Che tipo di informazioni conservare per un futuro nell’ipotesi – speriamo remota – che tutto il nostro sapere, sempre più digitalizzato, vada perso? Meglio preservare la letteratura, le tecniche ingegneristiche, o le cure per le malattie? Un criterio è evidentemente necessario.
La scelta della Long now foundation è stata quella di lasciare ai posteri una chiave di interpretazione utile a tradurre tutto ciò che è destinato a sopravvivere. Ma il progetto comprende anche una sezione digitale, cresciuta nel corso degli anni fino a raggiungere oltre centomila pagine di documenti testuali e registrazioni in oltre 2.500 lingue. I contenuti, si legge sul sito, sono disponibili a chiunque per il download e il riutilizzo secondo i principi dell’open access; anche il pubblico può contribuire alla raccolta inviando materiale di vario tipo. Fondamentale per raccapezzarsi è il ruolo dei metadati (data, luogo, formato e altri elementi dei dati in questione) – ci torneremo più avanti.
Anche in Europa ci sono progetti di tutela del patrimonio linguistico in piena attività. Per esempio in Francia – non dimentichiamo che la stele di Rosetta (conservata al British Musem di Londra) fu rinvenuta nell’ambito delle spedizioni napoleoniche – esiste il progetto Pangloss, che si propone di realizzare un archivio aperto di tutte le lingue in pericolo o poco parlate e contiene documenti sonori di idiomi rari o poco studiati, raccolti grazie al lavoro di linguisti professionisti su una piattaforma moderna e funzionale battezzata Cocoon.
Attualmente la collezione comprende un corpus di 258 tra lingue e dialetti di 46 paesi, per un totale di più di 1200 ore d’ascolto. I documenti presentati contengono per lo più discorsi spontanei, registrati sul campo. Circa la metà sono trascritti e annotati.
C’è anche un po’ di Italia: il dialetto slavo molisano (parlato nei tre villaggi di San Felice del Molise, Acquaviva Collecroce e Montemitro, in provincia di Campobasso, a 35 chilometri dal mare Adriatico) e il Valoc, un dialetto valtellinese lombardo.
Pangloss è open, sia in modalità “base” sia in quella “pro”. La politica è di apertura totale: per consultare il sito web non è necessario accettare specifiche condizioni d’uso né identificarsi. Non si utilizzano cookie di profilazione, come orgogliosamente dichiarato.
“Il progetto Pangloss è nato negli anni ‘90 e da allora si è evoluto considerevolmente”, dice a Guerre di Rete Severine Guillaume, che ne è la responsabile. “Si tratta di una collezione orale, il che significa che raccogliamo contenuti video e audio che possono anche essere accompagnati da annotazioni: trascrizioni, traduzioni, glosse. Ogni risorsa depositata dev’essere fornita di metadati: titolo, lingua studiata, nome di chi la carica, persone che hanno contribuito alla creazione, data della registrazione, descrizione del contenuto”.
L’intelligenza artificiale ha cominciato a farsi strada anche tra questi archivi digitali. “Abbiamo condotto degli esperimenti sui nostri dati con l’obiettivo di aiutare i ricercatori ad arricchirli”, conferma Guillaume. “Sono stati diversi i test di trascrizione automatica, e due di loro l’hanno già impiegata: per ogni minuto di audio si possono risparmiare fino a quaranta minuti di lavoro, lasciando agli studiosi il tempo di dedicarsi a compiti più importanti. Al momento, insomma, direi che stiamo sperimentando”.
Non è detto che funzioni in ogni situazione, ma “la risposta iniziale è affermativa quando la trascrizione riguarda un solo parlante”, prosegue Guillaume. Il problema sta “nella cosiddetta diarization, che consiste nel riconoscere chi sta parlando in un dato momento, separare le voci, e attribuire ogni segmento audio al partecipante corretto”.
Le prospettive, tutto sommato, sembrano incoraggianti. “Abbiamo cominciato a cercare somiglianze tra due idiomi o famiglie linguistiche: ciò potrebbe rivelare correlazioni che ci sono sfuggite”, afferma la dirigente. Siamo, per capirci, nella direzione della grammatica universale teorizzata da Noam Chomsky, e immaginata da Voltaire nel suo Candido (il dottor Pangloss, ispirandosi a Leibniz, si poneva lo scopo di scovare gli elementi comuni a tutte le lingue del mondo).
Il problema di preservare il corpus di conoscenze è stato affrontato? “Sì”, risponde Guillaume. “La piattaforma Cocoon, su cui è basata la collezione Pangloss, impiega l’infrastruttura nazionale francese per assicurare la longevità dei dati. Per esempio, tutte le informazioni sono conservate sui server dell’infrastruttura di ricerca Huma-Num, dedicata ad arti, studi umanistici e scienze sociali, finanziata e implementata dal ministero dell’Istruzione superiore e della Ricerca. Vengono poi mandate al Cines, il centro informatico nazionale per l’insegnamento superiore, che ne assicura l’archiviazione per almeno quindici anni. Infine, i dati sono trasferiti agli archivi nazionali francesi. Insomma, di norma tutto è pensato per durare per l’eternità”.
Altro progetto dalla connotazione fortemente digitale è Ethnologue. Nato in seno alla SIL (Summer Institute of Linguistics, una ong di ispirazione cristiano-evangelica con sede a Dallas) copre circa settemila lingue, offrendo anche informazioni sul numero di parlanti, mappe, storia, demografia e altri fattori sociolinguistici. Il progetto, nato nel 1951, coinvolge quattromila persone, e nasce dall’idea di diffondere le Scritture. Negli anni si è strutturato in maniera importante: la piattaforma è ricca di strumenti, e molti contenuti sono liberamente fruibili. Sebbene la classificazione fornita dal sito (per esempio la distinzione tra lingua e dialetto) sia stata messa in discussione, resta un punto di riferimento importante.
I progetti italiani
Non manca qualche spunto italiano. Come, per esempio, Alpilink. Si tratta di un progetto collaborativo per la documentazione, analisi e promozione dei dialetti e delle lingue minoritarie germaniche, romanze e slave dell’arco alpino nazionale. Dietro le quinte ci sono le università di Verona, Trento, Bolzano, Torino e Valle d’Aosta. A maggio 2025 erano stati raccolti 47.699 file audio, che si aggiungono ad altri 65.415 file collezionati nel precedente progetto Vinko. Le frasi pronunciate dai parlanti locali con varie inflessioni possono essere trovate e ascoltate grazie a una mappa interattiva, ma esiste anche un corpus per specialisti che propone gli stessi documenti con funzioni di ricerca avanzate. Il crowdsourcing (cioè la raccolta di contenuti) si è conclusa solo qualche mese fa, a fine giugno. La difficoltà per gli anziani di utilizzare la tecnologia digitale è stata aggirata coinvolgendo gli studenti del triennio delle superiori.
Altro progetto interessante è Devulgare. In questo caso mancano gli strumenti più potenti che sono propri dell’università; ma l’idea di due studenti, Niccolò e Guglielmo, è riuscita ugualmente a concretizzarsi in un’associazione di promozione sociale e in un’audioteca che raccoglie campioni vocali dal Trentino alla Calabria. Anche in questo caso, chiunque può partecipare inviando le proprie registrazioni. Dietro le quinte, c’è una squadra di giovani volontari – con cui peraltro è possibile collaborare – interessati alla conservazione del patrimonio linguistico nazionale. Un progetto nato dal basso ma molto interessante, soprattutto perché dimostra la capacità di sfruttare strumenti informatici a disposizione di tutti in modo creativo: Devulgare si basa, infatti, sulla piattaforma Wix, simile a WordPress e che consente di creare siti senza la necessità di essere maestri del codice. Una vivace pagina Instagram con 10.300 follower – non pochi, trattandosi di linguistica – contribuisce alla disseminazione dei contenuti.
Raccogliere campioni audio ha anche un’altra utilità: sulla base delle informazioni raccolte e digitalizzate oggi, sarà possibile domani, grazie all’intelligenza artificiale, ascoltare le lingue scomparse. L’idea viene da una ricerca applicata alla medicina, che attraverso un campione di soli otto secondi, registrato su un vecchio VHS, ha permesso di ricostruire con l’AI la voce di una persona che l’aveva persa.
È accaduto in Inghilterra, e recuperare il materiale non è stato una passeggiata: le uniche prove della voce di una donna affetta da Sla risalivano agli anni Novanta ed erano conservate su una vecchia videocassetta. Nascere molti anni prima dell’avvento degli smartphone ovviamente non ha aiutato. A centrare l’obiettivo sono stati i ricercatori dell’università di Sheffield. Oggi la donna può parlare, ovviamente con delle limitazioni: deve fare ricorso a un puntatore oculare per comporre parole e frasi. Ma la voce sintetizzata è molto simile a quella che aveva una volta. E questo apre prospettive insperate per i filologi.
Come spesso accade, il marketing ha naso per le innovazioni dotate di potenziale. E così, oggi c’è chi pensa di sfruttare l’inflessione dialettale per conquistare la fiducia dei consumatori. È quello che pensano i due ricercatori Andre Martin (Università di Notre Dame, Usa) e Khalia Jenkins (American University, Washington), che nella presentazione del loro studio citano addirittura Nelson Mandela: “Se parli a un uomo in una lingua che capisce, raggiungerai la sua testa. Ma se gli parli nella sua lingua, raggiungerai il suo cuore”.
“I sondaggi dell’industria hanno fotografato il sentiment sempre più negativo verso l’AI”, scrivono gli studiosi, che lavorano in due business school. “Immergendosi a fondo nel potenziale dei dialetti personalizzati, creati con l’AI al fine di aumentare la percezione di calore, competenza e autenticità da parte dell’utente, l’articolo sottolinea [come in questo modo si possa] rafforzare la fiducia, la soddisfazione e la lealtà nei confronti dei sistemi di intelligenza artificiale”. Insomma, addestrando gli agenti virtuali a parlare con una cadenza amica si può vendere di più. C’è sempre un risvolto business, e qui siamo decisamente lontani dagli intenti di conservazione della biodiversità linguistica. Ma anche questo fa parte del gioco.
L'articolo Rosette hi-tech, AI e server nazionali: chi lavora per preservare lingue in via d’estinzione proviene da Guerre di Rete.