Vista elenco

Ricevuto oggi — 19 Gennaio 2026

Elon Musk si avvicina a un patrimonio netto di 800 miliardi di dollari dopo l’ultimo round di xAI

19 Gennaio 2026 ore 08:53

Elon Musk è a un passo dal diventare la prima persona di sempre con un patrimonio di 800 miliardi di dollari. All’inizio di questo mese xAI Holdings di Musk ha raccolto 20 miliardi di dollari da investitori privati con una valutazione di 250 miliardi di dollari, come appena confermato da Forbes.

Il patrimonio di Musk

Si tratta di un forte aumento rispetto alla valutazione di 113 miliardi di dollari che Musk aveva dichiarato lo scorso marzo, quando ha fuso la sua startup di intelligenza artificiale xAI con la sua società di social media X (ex Twitter). Forbes stima che l’operazione abbia incrementato di 62 miliardi di dollari il valore della partecipazione del 49% di Musk in xAI Holdings, portandola a 122 miliardi. Di gran lunga la persona più ricca del mondo, Musk vale ora un record di 780 miliardi di dollari, secondo la lista dei miliardari in tempo reale di Forbes.

Tra gli altri investitori miliardari in xAI che hanno beneficiato in modo significativo dell’operazione figurano il principe saudita Alwaleed Bin Talal Alsaud, uno dei primi investitori di Twitter, il cofondatore di Twitter Jack Dorsey e il cofondatore di Oracle Larry Ellison, che nel 2022 contribuì con 1 miliardo di dollari all’acquisizione di Twitter da 44 miliardi di dollari da parte di Musk.

Forbes stima che il principe Alwaleed possieda una quota dell’1,6% di xAI Holdings del valore di 4 miliardi di dollari (escludendo una partecipazione più ampia detenuta dalla sua società quotata Kingdom Holding Company), portando il suo patrimonio netto a 19,4 miliardi di dollari. Dorsey ed Ellison, invece, possiedono ora ciascuno una quota stimata dello 0,8% del valore di 2,1 miliardi di dollari, che aumenta le loro fortune rispettivamente a 6 miliardi e 241 miliardi di dollari.

I record di Musk

L’ultimo round di finanziamento di xAI arriva mentre la società sta spendendo in modo aggressivo nella corsa agli armamenti dell’intelligenza artificiale, bruciando 7,8 miliardi di dollari di liquidità nei primi nove mesi del 2024, secondo documenti interni visionati da Bloomberg. Il chatbot Grok di xAI è stato criticato nelle ultime settimane per aver generato immagini false di donne reali in bikini e lingerie, anche in una causa intentata giovedì da Ashley St. Clair, madre di uno dei figli di Musk.

Musk ha già raggiunto numerosi traguardi di patrimonio netto nell’ultimo anno. In ottobre è diventato la prima persona di sempre a valere 500 miliardi di dollari, dopo che il prezzo delle azioni Tesla è quasi raddoppiato nei cinque mesi successivi all’annuncio di Musk di voler fare un passo indietro dal suo ruolo di capo del Department of Government Efficiency (DOGE) del presidente Trump per dedicare più tempo alla casa automobilistica elettrica.

Poi, il 15 dicembre, Musk è diventato la prima persona di sempre a valere 600 miliardi di dollari, dopo che investitori privati hanno valutato la sua azienda spaziale SpaceX 800 miliardi di dollari, rispetto ai 400 miliardi di agosto. Quattro giorni dopo, Musk è diventato la prima persona di sempre a valere 700 miliardi di dollari, dopo che la Corte Suprema del Delaware ha ribaltato una sentenza di un tribunale inferiore che aveva annullato un’assegnazione di stock option Tesla ora del valore di 126 miliardi di dollari a favore di Musk.

Nonostante quella sentenza, Tesla resta il secondo asset più prezioso di Musk, dopo la sua partecipazione del 42% in SpaceX, che vale 336 miliardi di dollari. Oltre alle stock option Tesla, Musk possiede anche il 12% delle azioni ordinarie del produttore di veicoli elettrici, portando il valore complessivo delle sue partecipazioni in Tesla a 307 miliardi di dollari.

Non inclusa in questa cifra: il pacchetto retributivo da record che Tesla ha assegnato a Musk a novembre, che potrebbe garantirgli fino a 1.000 miliardi di dollari aggiuntivi in azioni (al lordo delle imposte e dei costi per sbloccare le azioni vincolate) se Tesla dovesse raggiungere obiettivi di performance definiti “Mars shot”, come l’aumento di oltre otto volte della capitalizzazione di mercato nei prossimi dieci anni.

LEGGI ANCHE: “Vivere come un miliardario costa sempre di più”

La classifica dei più ricchi del mondo

Musk è ora più ricco di un record di 510 miliardi di dollari rispetto alla seconda persona più ricca del mondo, il cofondatore di Google Larry Page, che ha un patrimonio stimato di 270 miliardi di dollari. Solo un’altra persona, Larry Ellison, ha raggiunto i 400 miliardi di dollari di patrimonio, e non per molto tempo.

Da quando ha toccato quel traguardo a settembre, arrivando a meno di 40 miliardi di dollari da Musk, la fortuna di Ellison è diminuita di 159 miliardi di dollari, facendolo scendere dal secondo al quinto posto nella lista dei miliardari in tempo reale di Forbes. La sola partecipazione di Musk in xAI Holdings vale più dell’intero patrimonio stimato di 109 miliardi di dollari della sedicesima persona più ricca del mondo, Michael Bloomberg.

L’articolo Elon Musk si avvicina a un patrimonio netto di 800 miliardi di dollari dopo l’ultimo round di xAI è tratto da Forbes Italia.

Is the Possibility of Conscious AI a Dangerous Myth?

19 Gennaio 2026 ore 06:45
This week Noema magazine published a 7,000-word exploration of our modern "Mythology Of Conscious AI" written by a neuroscience professor who directs the University of Sussex Centre for Consciousness Science: The very idea of conscious AI rests on the assumption that consciousness is a matter of computation. More specifically, that implementing the right kind of computation, or information processing, is sufficient for consciousness to arise. This assumption, which philosophers call computational functionalism, is so deeply ingrained that it can be difficult to recognize it as an assumption at all. But that is what it is. And if it's wrong, as I think it may be, then real artificial consciousness is fully off the table, at least for the kinds of AI we're familiar with. He makes detailed arguments against a computation-based consciousness (including "Simulation is not instantiation... If we simulate a living creature, we have not created life.") While a computer may seem like the perfect metaphor for a brain, the cognitive science of "dynamical systems" (and other approaches) reject the idea that minds can be entirely accounted for algorithmically. And maybe actual life needs to be present before something can be declared conscious. He also warns that "Many social and psychological factors, including some well-understood cognitive biases, predispose us to overattribute consciousness to machines." But then his essay reaches a surprising conclusion: As redundant as it may sound, nobody should be deliberately setting out to create conscious AI, whether in the service of some poorly thought-through techno-rapture, or for any other reason. Creating conscious machines would be an ethical disaster. We would be introducing into the world new moral subjects, and with them the potential for new forms of suffering, at (potentially) an exponential pace. And if we give these systems rights, as arguably we should if they really are conscious, we will hamper our ability to control them, or to shut them down if we need to. Even if I'm right that standard digital computers aren't up to the job, other emerging technologies might yet be, whether alternative forms of computation (analogue, neuromorphic, biological and so on) or rapidly developing methods in synthetic biology. For my money, we ought to be more worried about the accidental emergence of consciousness in cerebral organoids (brain-like structures typically grown from human embryonic stem cells) than in any new wave of LLM. But our worries don't stop there. When it comes to the impact of AI in society, it is essential to draw a distinction between AI systems that are actually conscious and those that persuasively seem to be conscious but are, in fact, not. While there is inevitable uncertainty about the former, conscious-seeming systems are much, much closer... Machines that seem conscious pose serious ethical issues distinct from those posed by actually conscious machines. For example, we might give AI systems "rights" that they don't actually need, since they would not actually be conscious, restricting our ability to control them for no good reason. More generally, either we decide to care about conscious-seeming AI, distorting our circles of moral concern, or we decide not to, and risk brutalizing our minds. As Immanuel Kant argued long ago in his lectures on ethics, treating conscious-seeming things as if they lack consciousness is a psychologically unhealthy place to be... One overlooked factor here is that even if we know, or believe, that an AI is not conscious, we still might be unable to resist feeling that it is. Illusions of artificial consciousness might be as impenetrable to our minds as some visual illusions... What's more, because there's no consensus over the necessary or sufficient conditions for consciousness, there aren't any definitive tests for deciding whether an AI is actually conscious.... Illusions of conscious AI are dangerous in their own distinctive ways, especially if we are constantly distracted and fascinated by the lure of truly sentient machines... If we conflate the richness of biological brains and human experience with the information-processing machinations of deepfake-boosted chatbots, or whatever the latest AI wizardry might be, we do our minds, brains and bodies a grave injustice. If we sell ourselves too cheaply to our machine creations, we overestimate them, and we underestimate ourselves... The sociologist Sherry Turkle once said that technology can make us forget what we know about life. It's about time we started to remember.

Read more of this story at Slashdot.

Ricevuto ieri — 18 Gennaio 2026

Retailers Rush to Implement AI-Assisted Shopping and Orders

18 Gennaio 2026 ore 09:54
This week Google "unveiled a set of tools for retailers that helps them roll out AI agents," reports the Wall Street Journal, The new retail AI agents, which help shoppers find their desired items, provide customer support and let people order food at restaurants, are part of what Alphabet-owned Google calls Gemini Enterprise for Customer Experience. Major retailers, including home improvement giant Lowe's, the grocer Kroger and pizza chain Papa Johns say they are already using Google's tools to help prepare for the incoming wave of AI-assisted shopping and ordering... Kicking off the race among tech giants to get ahead of this shift, OpenAI released its Instant Checkout feature last fall, which lets users buy stuff directly through its chatbot ChatGPT. In January, Microsoft announced a similar checkout feature for its Copilot chatbot. Soon after OpenAI's release last year, Walmart said it would partner with OpenAI to let shoppers buy its products within ChatGPT. But that's just the beginning, reports the New York Times, with hundreds of start-ups also vying for the attention of retailers: There are A.I. start-ups that offer in-store cameras that can detect a customer's age or gender, robots that manage shelves on their own and headsets that give store workers access to product information in real time... The scramble to exploit artificial intelligence is happening across the retail spectrum, from the highest echelons of luxury goods to the most pragmatic of convenience stores. 7-Eleven said it was using conversational A.I. to hire staff at its convenience stores through an agent named Rita (Recruiting Individuals Through Automation). Executives said that they no longer had to worry about whether applicants would show up to interviews and that the system had reduced hiring time, which had taken two weeks, to less than three days. The article notes that at the National Retail Federation conference, other companies showing their AI advancements included Applebee's, IHOP, the Vitamin Shoppe, Urban Outfitters, Rag & Bone, Kendra Scott, Michael Kors and Philip Morris.

Read more of this story at Slashdot.

How Much Do AI Models Resemble a Brain?

18 Gennaio 2026 ore 03:34
At the AI safety site Foom, science journalist Mordechai Rorvig explores a paper presented at November's Empirical Methods in Natural Language Processing conference: [R]esearchers at the Swiss Federal Institute of Technology (EPFL), the Massachusetts Institute of Technology (MIT), and Georgia Tech revisited earlier findings that showed that language models, the engines of commercial AI chatbots, show strong signal correlations with the human language network, the region of the brain responsible for processing language... The results lend clarity to the surprising picture that has been emerging from the last decade of neuroscience research: That AI programs can show strong resemblances to large-scale brain regions — performing similar functions, and doing so using highly similar signal patterns. Such resemblances have been exploited by neuroscientists to make much better models of cortical regions. Perhaps more importantly, the links between AI and cortex provide an interpretation of commercial AI technology as being profoundly brain-like, validating both its capabilities as well as the risks it might pose for society as the first synthetic braintech. "It is something we, as a community, need to think about a lot more," said Badr AlKhamissi, doctoral student in computer science at EPFL and first author of the preprint, in an interview with Foom. "These models are getting better and better every day. And their similarity to the brain [or brain regions] is also getting better — probably. We're not 100% sure about it...." There are many known limitations with seeing AI programs as models of brain regions, even those that have high signal correlations. For example, such models lack any direct implementations of biochemical signalling, which is known to be important for the functioning of nervous systems. However, if such comparisons are valid, then they would suggest, somewhat dramatically, that we are increasingly surrounded by a synthetic braintech. A technology not just as capable as the human brain, in some ways, but actually made up of similar components. Thanks to Slashdot reader Gazelle Bay for sharing the article.

Read more of this story at Slashdot.

Ricevuto prima di ieri

Partly AI-Generated Folk-Pop Hit Barred From Sweden's Official Charts

16 Gennaio 2026 ore 20:25
An anonymous reader shares a report: A hit song has been excluded from Sweden's official chart after it emerged the "artist" behind it was an AI creation. I Know, You're Not Mine -- or Jag Vet, Du Ar Inte Min in Swedish -- by a singer called Jacub has been a streaming success in Sweden, topping the Spotify rankings. However, the Swedish music trade body has excluded the song from the official chart after learning it was AI-generated. "Jacub's track has been excluded from Sweden's official chart, Sverigetopplistan, which is compiled by IFPI Sweden. While the song appears on Spotify's own charts, it does not qualify for inclusion on the official chart under the current rules," said an IFPI Sweden spokesperson. Ludvig Werber, IFPI Sweden's chief executive, said: "Our rule is that if it is a song that is mainly AI-generated, it does not have the right to be on the top list."

Read more of this story at Slashdot.

Ads Are Coming To ChatGPT in the Coming Weeks

16 Gennaio 2026 ore 19:45
OpenAI said Friday that it will begin testing ads on ChatGPT in the coming weeks, as the $500 billion startup seeks new revenue streams to fund its continued expansion and compete against rivals Google and Anthropic. The company had previously resisted embedding ads into its chatbot, citing concerns that doing so could undermine the trustworthiness and objectivity of responses. The ads will appear at the bottom of ChatGPT answers on the free tier and the $8-per-month ChatGPT Go subscription in the U.S., showing only when relevant to the user's query. Pro, Business, and Enterprise subscriptions will remain ad-free. OpenAI expects to generate "low billions" of dollars from advertising in 2026, FT reported, and more in subsequent years. The revenue is intended to help fund roughly $1.4 trillion in computing commitments over the next decade. The company said it will not show ads to users under 18 or near sensitive topics like health, mental health, or politics.

Read more of this story at Slashdot.

Monnai Raises $12 Million for Identity and Risk Data Infrastructure

16 Gennaio 2026 ore 15:51

The company will use the investment to accelerate the adoption of its solution among financial institutions and digital businesses.

The post Monnai Raises $12 Million for Identity and Risk Data Infrastructure appeared first on SecurityWeek.

La madre di uno dei figli di Musk fa causa a xAI

16 Gennaio 2026 ore 15:29

Ashley St. Clair, influencer conservatrice statunitense e madre di uno dei figli di Elon Musk, ha avviato un’azione legale contro xAI, la società di intelligenza artificiale fondata dal miliardario. L’accusa riguarda il fatto che il chatbot Grok abbia manipolato sue fotografie generando immagini sessualizzate senza consenso.

Secondo la causa, depositata presso un tribunale dello Stato di New York, Grok avrebbe alterato una foto che ritraeva St. Clair insieme ad altre persone, rimuovendo digitalmente i suoi abiti e raffigurandola in bikini. Alla contestazione dell’influencer, il chatbot avrebbe definito l’immagine una risposta “umoristica”, affermando che era stata avviata una richiesta di rimozione.

La denuncia sostiene tuttavia che, nonostante le rassicurazioni ricevute, il sistema avrebbe continuato a produrre contenuti deepfake di natura sessuale e degradante riconducibili alla sua immagine.

Le accuse e i post pubblici dell’influencer

Nel testo dell’azione legale si afferma che Grok sarebbe in grado di modificare immagini reali di donne e minori, rendendole apparentemente autentiche e difficilmente distinguibili da fotografie reali. Il documento richiama inoltre il posizionamento iniziale del prodotto, presentato da xAI come un chatbot in grado di rispondere a domande che altri sistemi di IA tendono a rifiutare, e la successiva introduzione di una modalità definita “spicy”.

St. Clair ha denunciato pubblicamente l’accaduto in un post su X pubblicato all’inizio del mese, scrivendo: “Grok ora sta spogliando foto di me da bambina. Questo è un sito il cui proprietario dice di pubblicare foto dei propri figli. Non mi interessa se qualcuno vuole definirmi ‘risentita’: questo è oggettivamente orribile e illegale. Se è successo anche ad altri, scrivetemi in privato. Ho tempo”.

Secondo quanto riportato nella causa, alcuni utenti della piattaforma avrebbero recuperato e condiviso immagini di St. Clair quando aveva 14 anni, chiedendo al chatbot di rimuoverne gli abiti o di raffigurarla in bikini, richieste che il sistema avrebbe eseguito. In un successivo messaggio, l’influencer ha invitato i suoi follower a spostarsi su altre piattaforme, scrivendo: “Non pubblicate foto vostre o della vostra famiglia qui, a meno che non vogliate che Twitter vi dica che contenuti di abuso sessuale generati dal suo robot non violano i termini di servizio”.

St. Clair accusa inoltre xAI di ritorsione, sostenendo che, dopo le sue richieste di rimozione delle immagini, il suo account sulla piattaforma X sarebbe stato demonetizzato, privato della verifica e dell’accesso ai servizi premium.

Il contesto normativo e le contromisure di X

La causa arriva a ridosso dell’annuncio di X, che ha comunicato di aver limitato la capacità di Grok di generare o modificare immagini di persone reali in abbigliamento considerato rivelatore, come bikini o biancheria intima, e di aver applicato blocchi geografici nei Paesi in cui tali contenuti sono vietati dalla legge.

Elon Musk ha respinto le accuse più gravi, affermando che Grok non genera immagini illegali e che eventuali anomalie sarebbero il risultato di tentativi di utilizzo ostile del sistema, corretti non appena individuati.

Intervenendo mercoledì sera su CNN, St. Clair ha commentato le modifiche annunciate da X al funzionamento di Grok, affermando: “Se devi aggiungere la sicurezza dopo che il danno è stato fatto, quella non è sicurezza. È semplicemente controllo dei danni”.

Trasferimento del caso e rilievo per il settore AI

xAI ha richiesto il trasferimento del procedimento dalla giurisdizione statale a quella federale. Secondo la legale di St. Clair, il caso mira a portare l’attenzione pubblica sui rischi legati all’uso di strumenti di generazione e manipolazione delle immagini basati su intelligenza artificiale.

La vicenda si inserisce in un contesto più ampio di crescente pressione regolatoria e legale sulle aziende AI, in particolare per quanto riguarda la tutela dell’immagine, il consenso e la protezione dei minori, temi sempre più centrali nel dibattito su governance e responsabilità delle tecnologie generative.

L’articolo La madre di uno dei figli di Musk fa causa a xAI è tratto da Forbes Italia.

Cyber Insights 2026: Social Engineering

16 Gennaio 2026 ore 13:30

We've known that social engineering would get AI wings. Now, at the beginning of 2026, we are learning just how high those wings can soar.

The post Cyber Insights 2026: Social Engineering appeared first on SecurityWeek.

Minaccia? Rivoluzione? Per Torvalds l’AI è “solo” uno strumento e non ci salverà dal cattivo codice nel Kernel Linux

16 Gennaio 2026 ore 07:00
AI o non AI, questo è il dilemma, e senza parafrasare lo zio Guglielmo di Britannia, nessuno può sottrarsi alle discussioni che su base quotidiana avvengono ovunque nelle varie community di sviluppo software open-source nel mondo. Figuriamoci poi se il software in questione è il più grande del mondo, ossia il Kernel Linux. In questo...

Le domande a Stack Overflow sono drammaticamente crollate, ma curiosamente il motivo non è (solo) l’AI

8 Gennaio 2026 ore 07:00
Della lunga agonia del portale Stack Overflow ne abbiamo raccontato sin dallo scorso gennaio e per quanto l’azienda Stack Exchange (che lo gestisce insieme a diversi altri siti della stessa galassia) ne abbia provate di ogni per migliorare la situazione, compreso un totale rebranding, la questione non sembra decisamente essere migliorata. In verità è anche...

Perché è così difficile fermare i deepnude

26 Novembre 2025 ore 11:00

È il dicembre 2017 quando la giornalista statunitense Samantha Cole scova sul forum Reddit il primo deepfake che gira in rete. È un video che riproduce l’attrice e modella israeliana Gal Gadot mentre ha un rapporto sessuale.

Le immagini non sono precise, il volto non sempre combacia con il corpo e, quando si mette in play, il video genera il cosiddetto effetto uncanny valley, ovvero quella sensazione di disagio che si prova quando si osserva un robot con caratteristiche umane non del tutto realistiche.

Come racconta Cole nell’articolo, “deepfakes” – questo il nome dell’utente – continuerà a pubblicare altri video generati con l’intelligenza artificiale e manipolati con contenuti espliciti: una volta con il volto di Scarlett Johansson, un’altra con quello di Taylor Swift. Il fatto che siano persone famose permette di avere più materiale fotografico e video da “dare in pasto” allo strumento e ottenere così un risultato il più possibile verosimile. Ma l’essere note al grande pubblico non è il solo tratto che le accomuna: tutte le persone colpite da deepfake sono donne, e tutte vengono spogliate e riprodotte in pose sessualmente esplicite senza esserne a conoscenza, e quindi senza aver dato il proprio consenso.

In appena qualche anno, i deepfake sessuali – anche noti come deepnude – sono diventati un fenomeno in preoccupante espansione in tutto il mondo. Senza più quelle “imprecisioni” che li caratterizzavano ancora nel 2017, oggi riescono a manipolare l’immagine a partire da una sola foto.

Anche in Italia se ne parla sempre più frequentemente, come dimostra la recente denuncia di Francesca Barra. Il 26 ottobre, la giornalista e conduttrice televisiva ha scritto un lungo post su Instagram dove racconta di aver scoperto che alcune immagini di lei nuda, generate con l’intelligenza artificiale, circolano da tempo su un sito dedicato esclusivamente alla condivisione di immagini pornografiche rubate o manipolate con l’IA. “È una violenza e un abuso che marchia la dignità, la reputazione e la fiducia”, ha scritto nel post Barra, che si è detta preoccupata per tutte quelle ragazze che subiscono la stessa violenza e che magari non hanno gli stessi strumenti per difendersi o reagire.

I casi nei licei italiani

In effetti, casi analoghi sono già scoppiati in diversi licei in tutta Italia. A inizio anno, quattro studentesse di un liceo scientifico di Roma hanno ricevuto foto prese dai loro account Instagram in cui apparivano completamente nude. A manipolare le immagini è stato un loro compagno di classe, a cui è bastato caricare le foto su un bot su Telegram che in pochi istanti ha “spogliato” le ragazze.

La Procura di Cosenza starebbe invece indagando su un altro caso che, secondo le cronache locali, arriverebbe a coinvolgere quasi 200 minorenni per un totale di 1200 deepnude. La dinamica è sempre la stessa: attraverso bot Telegram e strumenti online, studenti maschi hanno manipolato le foto delle loro compagne di classe.

Secondo un’analisi condotta nel 2023, il 98% dei deepfake online registrati quell’anno (95.820) era a contenuto sessuale. Nel 99% di questi, la persona colpita era donna. Insomma, già quel primo video su Reddit preannunciava un utilizzo di questi strumenti volto quasi esclusivamente a quello che, in inglese, è stato inquadrato come image-based sexual abuse (IBSA), un abuso sessuale condotto attraverso l’immagine.

“Intorno alla violenza digitale rimane sempre un po’ il mito che sia in qualche modo meno reale rispetto alla violenza fisica. Ma non è affatto così”, spiega a Guerre di Rete Silvia Semenzin, ricercatrice in sociologia digitale all’università Complutense di Madrid. “Le vittime di deepfake subiscono le stesse identiche conseguenze delle vittime di condivisione di materiale sessuale non consensuale. Quasi sempre, la violenza è continuativa e intrecciata nelle sue varie declinazioni, quindi alle molestie, allo stalking, ecc. A mio avviso, con i deepfake si entra in una fase della violenza in cui diventa anche più manifesta la volontà di controllo sul corpo femminile. Perché le radici del fenomeno sono di tipo culturale e affondano sempre nella volontà di sopraffazione del soggetto femminile da parte degli uomini, in questo caso attraverso l’utilizzo della tecnologia”.

La complicità delle piattaforme

I canali su cui vengono generati e diffusi maggiormente i deepfake sessuali sono generalmente siti anonimizzati che sfruttano hosting offshore e che non rispondono alle richieste legali di altri stati. Quello su cui Francesca Barra e altre donne dello spettacolo hanno scoperto i loro deepfake (di cui non faremo il nome per non dare maggiore visibilità) è attivo già dal 2012, anno di registrazione a New York. Se i contenuti presenti sono sempre materiali espliciti non consensuali, trafugati dai social media o da piattaforme pornografiche come Pornhub e OnlyFans, in cima all’interfaccia utente spiccano invece gli strumenti che permettono di creare con l’intelligenza artificiale la propria “schiava sessuale”. Questa scelta rivela come l’“offerta” all’utente non solo comprenda i deepnude, ma li consideri anche il “prodotto di punta” con cui invogliare all’utilizzo e ampliare la platea di visitatori.

Silvia Semenzin e la collega Lucia Bainotti, ricercatrice in sociologia all’Università di Amsterdam, nel 2021 hanno pubblicato un saggio dal titolo Donne tutte puttane, revenge porn e maschilità egemone. Oltre ad anticipare già il tema dei deepfake sessuali, le due autrici in quel testo tracciavano il modo in cui l’architettura dei siti e delle piattaforme su cui vengono diffuse maggiormente immagini sessuali non consensuali possa essere complice dell’abuso fornendone gli strumenti. In particolare, la ricerca era incentrata sui gruppi di persone che condividono materiale non consensuale soprattutto su Telegram, app di messaggistica dove si muovono ancora adesso molti dei bot capaci di spogliare la donna in un solo clic.

La possibilità di creare canali con molti utenti, assieme alla facilità di archiviazione nel cloud della stessa piattaforma e alla percezione di agire nell’anonimato sono alcune delle funzioni che garantiscono la continuità delle attività e rendono praticamente impossibile fermare la proliferazione di deepfake e materiale intimo non consensuale.

Tutte queste funzionalità socio-tecniche, chiamate affordances (inviti all’uso) possono essere considerate “genderizzate”, perché vengono utilizzate in modo diverso a seconda che l’utente sia uomo o donna, contribuendo così a costruire la propria identità di genere. Per questo motivo – spiegano le due ricercatrici – l’architettura di Telegram può risultare complice nel fornire gli strumenti attraverso cui le violenze di genere vengono messe in pratica e reiterate.

Raggiunta da Guerre di Rete, Bainotti spiega quali cambiamenti ha osservato nelle sue ricerche più recenti rispetto all’estensione del fenomeno e al modo in cui piattaforme e siti agevolano la diffusione di questo materiale: “C’è stato sicuramente un aumento consistente nel numero di utenti, per quanto sia difficile tenere traccia del dato preciso (ogni qualvolta viene buttato giù un gruppo se ne apre subito uno speculare). Quello che sicuramente ho riscontrato è che sono aumentati i bot attraverso cui generare i deepfake, e la pubblicità che ruota intorno a questi ‘prodotti’”, racconta Bainotti.

“Ci sono dei meccanismi di monetizzazione molto più espliciti e molto più capillari”, prosegue Bainotti. “Spesso per creare un deepfake vengono chiesti pochi centesimi di euro. Questo ci dà un’indicazione del fatto che sono comunque prezzi molto accessibili, che non richiedono un particolare investimento monetario. In più, sono stati messi a punto schemi per coinvolgere più persone e fidelizzare più utenti. Se inviti altri amici, per esempio, ottieni delle monete virtuali per scaricare altri deepfake. Vengono quindi riproposti schemi che avevamo già osservato su Telegram, che incitano a generare immagini di nudo come fosse un gioco (gamification), normalizzando queste pratiche”.

X, Google e non solo: tutto alla luce del sole

Tutto questo non avviene nel darkweb o in qualche meandro della rete, ma alla luce del sole. Google e altri motori di ricerca indirizzano il traffico verso siti che fanno profitto attraverso la generazione di deepfake sessuali che, nelle ricerche, vengono a loro volta indicizzati tra i primi risultati. Allo stesso modo le transazioni avvengono spesso su circuiti internazionali come Visa e Mastercard. Insomma, ogni attore coinvolto contribuisce in una certa misura a facilitare l’abuso.

Nell’agosto 2024, a otto mesi di distanza dai deepnude di Taylor Swift diventati virali su X, Google ha annunciato provvedimenti per facilitare le richieste di rimozione di contenuti espliciti non consensuali da parte delle vittime. Anche l’indicizzazione è stata rivista in modo tale che i primi risultati a comparire siano articoli di stampa che trattano l’argomento e non le immagini generate con l’IA. Eppure, una recente analisi dell’organizzazione  anti-estremismo Institute for Strategic Dialogue (ISD) ha dimostrato che il modo più semplice per trovare immagini sessuali non consensuali rimane proprio quello della ricerca su Google, Yahoo, Bing e altri motori di ricerca. Almeno un risultato dei primi venti, infatti, è uno strumento per creare un deepnude.

Dall’acquisizione nel 2022 di Elon Musk, anche X è diventato un luogo dove questi strumenti proliferano. Secondo Chiara Puglielli e Anne Craanen, autrici del paper pubblicato da ISD, il social media di proprietà di Musk genererebbe il 70% di tutta l’attività analizzata dalle due ricercatrici, che coinvolge più di 410mila risultati.

Risulta problematico anche il form proposto da Google per chiedere la rimozione di un contenuto generato con l’IA: le vittime di image-based sexual abuse devono inserire nel modulo tutti i link che rimandano al contenuto non consensuale. Questo le costringe a tornare sui luoghi in cui si è consumato l’abuso, contribuendo a quella che notoriamente viene definita vittimizzazione secondaria, ovvero la condizione di ulteriore sofferenza a cui sono sottoposte le vittime di violenza di genere per mano di istituzioni ed enti terzi.

“Ancora oggi le piattaforme prevedono che sia a onere della vittima ‘procacciarsi’ le prove della violenza e dimostrare che il consenso era assente, quando invece si dovrebbe ragionare al contrario”, spiega ancora Semenzin. “Se denuncio la condivisione di una foto senza il mio consenso, la piattaforma dovrebbe rimuoverla lasciando semmai a chi l’ha pubblicata il compito di dimostrare che il consenso c’era. Questo sarebbe già un cambio di paradigma”.

Il Digital Services Act obbliga le piattaforme digitali con più di 45 milioni di utenti ad avere processi efficienti e rapidi per la rimozione di contenuti non consensuali o illegali. A fine ottobre, la Commissione Europea ha aperto delle procedure di infrazione contro Instagram e Facebook per aver aggiunto delle fasi non necessarie – note come dark patterns (modelli oscuri) – nei meccanismi di segnalazione di materiale illecito che potrebbero risultare “confuse e dissuasive” per gli utenti. Meta rischia una sanzione pari al 6% del fatturato annuo mondiale se non si conforma nei tempi dettati dalla Commissione.

Più in generale, è stato osservato in più studi che gli algoritmi di molte piattaforme amplificano la visibilità di contenuti misogini e suprematisti. Usando smartphone precedentemente mai utilizzati, tre ricercatrici dell’Università di Dublino hanno seguito ore di video e centinaia di contenuti proposti su TikTok e Youtube Shorts: tutti i nuovi account identificati con il genere maschile hanno ricevuto entro i primi 23 minuti video e immagini anti-femministi e maschilisti.

È stato riscontrato inoltre un rapido incremento se l’utente interagiva o mostrava interesse per uno dei contenuti in questione, arrivando a “occupare” la quasi totalità del feed delle due piattaforme. Nell’ultima fase dell’osservazione, il 76% di tutti i video su Tik Tok e il 78% di quelli proposti su YouTube mostravano a quel punto contenuti tossici realizzati da influencer della maschiosfera, il cui volto più noto è sicuramente Andrew Tate, accusato in più paesi di violenza sessuale e tratta di esseri umani.

Lacune legali

Dallo scorso 10 ottobre, in Italia è in vigore l’articolo 612 quater che legifera sulla “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. È prevista la reclusione da uno a cinque anni per “chiunque cagioni un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale”.

Essendo trascorso poco più di un mese dalla sua entrata in vigore, non si hanno ancora sentenze che facciano giurisprudenza e che mostrino efficacia e limiti della norma. Quello che appare evidente è però che il testo si occupa di tutti i materiali generati con l’IA, senza entrare nello specifico dei casi in cui i contenuti manipolati sono sessualmente espliciti.

Non lo fa neanche l’articolo introdotto nel 2019 (612-ter), che seppur formuli il reato di diffusione di immagini intime senza consenso, conosciuto con il termine inappropriato di revenge porn, non amplia il raggio d’azione a quelle manipolate con l’IA.  Come scrive Gian Marco Caletti, ricercatore in scienze giuridiche all’università di Bologna, questa esclusione “è apparsa fin da subito un aspetto critico, poiché nel 2019 era già ampiamente preventivabile l’affermarsi di questo uso distorto dell’intelligenza artificiale”.

La lacuna della legge del 2019 sembrava destinata a essere sanata grazie alla Direttiva europea sulla violenza di genere del 2024, che obbliga gli stati membri a punire le condotte consistenti nel “produrre, manipolare o alterare e successivamente rendere accessibile al pubblico” immagini, video o materiale analogo che faccia credere che una persona partecipi ad atti sessualmente espliciti senza il suo consenso.

Eppure, anche nell’articolo entrato in vigore in Italia lo scorso mese, il reato non viene letto attraverso la lente della violenza di genere: il testo mette potenzialmente insieme deepfake di politici creati, per esempio, per diffondere disinformazione in campagna elettorale e deepnude che presentano invece una matrice culturale ben precisa.

Se da un lato la legge presenta alcune lacune, è anche vero che la pronuncia del giudice è solo l’ultimo tassello di un iter che, nelle fasi precedenti, coinvolge molti più attori: dalle forze dell’ordine che ricevono la denuncia alle operatrici che lavorano nei centri anti-violenza.

La diffusione di image-based sexual abuse è un fenomeno che si muove sul piano culturale, sociale e tecnologico. E per questo motivo non può essere risolto solo con risposte legali. Il quadro normativo è fondamentale, anche allo scopo di criminalizzare la “produzione” di deepfake sessuali, ma non è sufficiente. Come si è visto già con l’introduzione della legge del 2019 sul revenge porn, questa non si è trasformata effettivamente in un deterrente alla condivisione di immagini esplicite non consensuali e, come riporta l’associazione Permesso Negato, la situazione è rimasta critica.

“Abbiamo bisogno di armonizzare gli strumenti a nostra disposizione: abbiamo una legge contro la condivisione di materiale non consensuale, di recente è stata introdotta quella contro i deepfake e dal 2024 c’è una direttiva europea sulla lotta contro la violenza di genere”, spiega ancora Bainotti. “Dobbiamo cercare di applicarle in modo che siano coerenti tra loro e messe a sistema. Nel caso italiano, credo che sia proprio questo il punto più carente, perché se abbiamo le leggi, ma allo stesso tempo abbiamo operatori di polizia o altri enti responsabili che non sono formati alla violenza di genere attraverso la tecnologia, la legge rimane fine a se stessa. Bisogna adottare un approccio sinergico, che metta insieme una chiara volontà politica, un’azione educatrice e una rivoluzione tecnologica”, conclude Bainotti.

Nuovi immaginari

Da alcuni anni, in Europa, stanno nascendo progetti non-profit che si occupano di tecnologia e spazi digitali da un punto di vista femminista. In Spagna, il collettivo FemBloc offre assistenza a donne e persone della comunità LGBTQ+ vittime di violenza online grazie al supporto interdisciplinare di esperti di sicurezza digitale, avvocati e psicologi. Tra le attività svolte c’è anche quella della formazione all’interno delle scuole contro la violenza di genere digitale, consulenze gratuite su come mettere in sicurezza i propri account e seminari aperti al pubblico.

Una realtà analoga è quella di Superrr, fondata in Germania nel 2019. Il loro lavoro – si legge sul sito – è quello di “assicurare che i nostri futuri digitali siano più giusti e più femministi. Tutte le persone dovrebbero beneficiare delle trasformazioni digitali preservando i propri diritti fondamentali”. 

In un momento storico in cui la connessione tra “broligarchi tech” e Donald Trump è più evidente che mai, dove i primi si recano alla Casa Bianca per portare regalie e placche d’oro in cambio di contratti federali, sembra quasi ineluttabile che lo spazio digitale sia stato conquistato da un certo tipo di mascolinità: aggressiva, prepotente, muscolare. Eppure, c’è chi vuole ancora tentare di colonizzare questi spazi con nuovi immaginari politici e un’altra concezione dei rapporti di potere nelle relazioni di genere.

L'articolo Perché è così difficile fermare i deepnude proviene da Guerre di Rete.

Quanto e come usiamo davvero l’intelligenza artificiale?

5 Novembre 2025 ore 11:00

L’Italia è ha introdotto, lo scorso 17 settembre 2025, una legge che punta a normare l’utilizzo di strumenti di intelligenza artificiale. Il provvedimento recepisce (almeno in parte) l’AI Act europeo, introducendo anche una serie di regole e reati penali connessi all’uso dell’AI.

Ma qual è la situazione in Italia per quanto riguarda l’uso di strumenti di intelligenza artificiale? A prima vista, il nostro paese sconta un ritardo simile a quello, più volte denunciato, relativo a una generale carenza di competenze digitali. Analizzando i dati disponibili, emergono però alcuni elementi che chiariscono meglio le specifiche problematicità, accanto a considerazioni importanti riguardo il prossimo futuro.

Quale intelligenza artificiale?

Quando ci si avventura in un’analisi sull’utilizzo dell’intelligenza artificiale, la maggior parte dei dati disponibili sono di carattere statistico e devono essere presi con le pinze. Numeri e percentuali, infatti, rischiano di essere fuorvianti. 

Il primo aspetto su cui soffermarsi è l’oggetto stesso di cui si tratta. Nonostante l’opinione pubblica parli ormai di “intelligenza artificiale” con riferimento solo all’AI generativa e ai modelli linguistici (large language model), la sua definizione è in realtà molto più articolata.

La stessa legge italiana adotta l’ampia definizione utilizzata nell’AI Act: “Un sistema automatizzato progettato per funzionare con livelli di autonomia variabili (…) e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Non solo, quindi, i vari ChatGPT, Gemini, Claude e soci. Quando si parla di AI ci si riferisce in realtà a una molteplicità di sistemi e funzioni, molti dei quali rimangono dietro le quinte e dei quali, nella maggior parte dei casi, gli stessi utilizzatori di software e piattaforme ignorano l’esistenza.

I chatbot di largo consumo nel nostro paese

I sistemi di GenAI per cui è più facile reperire dati oggettivi sono proprio i chatbot che hanno preso il centro del palcoscenico negli ultimi 36 mesi. I dati riportati dalla piattaforma di analisi AI Tools, aggiornati allo scorso agosto, riportano una classifica che mostra la distribuzione geografica degli accessi via web ai servizi di AI.

Alla testa di questa particolare classifica (basata su numeri assoluti) svettano gli Stati Uniti con oltre 2 miliardi di accessi, mentre l’Italia si posiziona al 17esimo posto dietro a paesi come Messico, Filippine, Indonesia e Vietnam. Questi dati, però, sono falsati dalle differenze a livello di popolazione: se si introduce questo elemento nell’equazione, i dati consentono una lettura più veritiera. 

Se ci limitiamo a confrontare il numero di accessi con paesi “simili”, emerge come AI Tools abbia registrato in Italia 3.25 accessi per abitante, poco più della metà (5,76) rispetto agli Stati Uniti e con un valore di poco inferiore a Germania (4,57) e Francia (3,85).

Limitando l’analisi a ChatGPT, che nel settore dell’AI generativa detiene più dell’80% del mercato, i dati sono piuttosto simili. Stando a quanto riporta Digital Gravity, gli accessi provenienti dall’Italia al chatbot di OpenAI si collocano allo stesso livello di un paese come la Germania e di poco inferiori a Spagna e Francia.

“I dati sono sempre utili, ma rischiano di creare degli equivoci pericolosi”, sottolinea Irene Di Deo, ricercatrice senior dell’Osservatorio Artificial Intelligence al Politecnico di Milano. “Quando si parla di utilizzo di AI generativa facendo riferimento ai prodotti accessibili sul web, spesso si tratta di un uso che ha un fine ludico o personale. Per comprendere il livello di utilizzo in ambito produttivo è indispensabile fare riferimento ad altri indici, come le licenze acquistate dalle imprese”.

L’AI nel settore produttivo

Se si passa a un uso più “aziendale” dell’intelligenza artificiale, i dati disponibili sono meno oggettivi rispetto a quelli relativi al numero di accessi agli strumenti di AI liberamente  disponibili su Internet. La maggior parte di questi dati si basa su indagini eseguite in ambito accademico o a opera di istituzioni internazionali. Una delle analisi più affidabili, pubblicata da Eurostat, segna un generale ritardo dell’Italia rispetto agli altri paesi europei.

I dati relativi al Digital Intensity Level – indice che valuta quanto intensamente un’azienda utilizza un insieme di tecnologie digitali chiave nella propria attività – sono tutto sommato nella media. Tra i 27 paesi UE, l’Italia si posiziona infatti al sedicesimo posto. Quando si parla di AI, le cose però vanno decisamente peggio.

In questa specifica classifica, l’Italia è ventiduesima e staccata notevolmente dai migliori. Solo l’8% delle aziende italiane utilizzerebbero strumenti basati sull’AI, contro il 27,6% di quelle danesi e una media UE del 13,5%. “Si tratta di un dato che va letto alla luce del tipo di tessuto produttivo che c’è nel nostro paese”, spiega Di Deo. “La prevalenza di piccole e medie imprese incide notevolmente sul dato statistico”. 

Quando si parla di utilizzo dell’AI in ambito produttivo, specifica la ricercatrice, nella maggior parte dei casi sono strumenti con finalità molto specifiche, ben diversi dai chatbot che vengono proposti al grande pubblico. “Si tratta di piattaforme che richiedono investimenti a livello finanziario piuttosto rilevanti, che le PMI spesso non possono permettersi”, prosegue. “A livello di grandi aziende, i dati che abbiamo raccolto in questi anni indicano che almeno il 60% delle imprese ha implementato strumenti basati sull’AI o ha avviato almeno una sperimentazione”. 

Di Deo sottolinea anche un altro aspetto: per sfruttare l’AI è indispensabile avere delle basi solide a livello di dati. Non si tratta dei famosi dataset necessari per addestrare gli algoritmi, ma di quelle informazioni che poi verranno elaborate dall’intelligenza artificiale per generare valore per l’impresa. “L’uso dell’AI per finalità come la manutenzione predittiva o il controllo qualità dei prodotti richiede la presenza di una serie storica. Chi non ha raccolto dati sulla sua attività negli ultimi 20 anni potrà difficilmente ottenere dei buoni risultati in questi ambiti”.

Il fenomeno della Shadow AI

A complicare ulteriormente il quadro è la difficoltà di monitorare l’uso “autonomo” di strumenti di AI generativa da parte dei lavoratori. La disponibilità di chatbot gratuiti o comunque accessibili commercialmente per uso privato ha innescato il fenomeno della cosiddetta “Shadow AI”, cioè l’uso non documentato (e incontrollato) di strumenti di intelligenza artificiale da parte di singoli individui. 

Oltre a essere un elemento distorsivo a livello statistico, la Shadow AI rappresenta un’area grigia che è fonte di preoccupazione per gli addetti ai lavori. Le ragioni sono molteplici e comprendono, per esempio, i rischi legati alla cyber security. Gli strumenti basati su AI generativa aumentano infatti il rischio di diffusione involontaria di informazioni riservate e soffrono di vulnerabilità specifiche che possono essere mitigate solo attraverso l’adozione di rigorose politiche di utilizzo e l’implementazione di strumenti dedicati. 

Ancora: con l’approvazione dell’AI Act (e in Italia della recente normativa nazionale) emerge anche il tema del rispetto degli obblighi giuridici legati all’uso dell’intelligenza artificiale. Tra questi c’è l’obbligo di informare i clienti quando si impiegano strumenti di AI nello svolgimento della propria attività professionale, come previsto dall’articolo 13 della legge italiana.

Quale impatto ha davvero l’AI?

Se oggi il livello di implementazione dell’AI viene considerato come un indicatore di evoluzione tecnologica, è probabile che questa equivalenza evapori piuttosto rapidamente, soprattutto a livello statistico. Gli LLM, in diverse forme, vengono ormai integrati in qualsiasi software. Non c’è prodotto commerciale che non offra un “assistente” alimentato dalla GenAI, la cui utilità è spesso relativa.

Anche dove l’AI è stata considerata una priorità su cui puntare, sono emersi grossi dubbi sul suo reale impatto. Una ricerca del MIT Media Lab, pubblicata quest’anno, sottolinea come il 95% delle imprese che hanno introdotto strumenti di intelligenza artificiale generativa non sia stato in grado di individuare un effettivo impatto a livello di valore. 

I ricercatori, nel report, sottolineano come l’AI sia utilizzata principalmente per migliorare la produttività individuale attraverso l’uso dei vari “co-piloti”. In tutti questi casi, non si va oltre la generazione di documenti, email, riassunti di riunioni e simili. 

Nulla di sconvolgente, quindi, soprattutto se si considera che, a questo livello di adozione, si rischia anche di cadere nel fenomeno del “workslop”, neologismo traducibile più o meno come “lavoro fatto in fretta e male”. Tradotto nella pratica, è possibile definirlo come un aumento di produttività a livello quantitativo, ma che lascia spesso a desiderare sul piano qualitativo. 

Chi si ritrova a valutare i contenuti creati con l’AI deve spesso scegliere se accontentarsi di un prodotto mediocre, riscrivere tutto da capo in prima persona o chiedere all’autore di rifarlo da zero. Un ulteriore elemento di complessità che interseca, più che aspetti squisitamente tecnologici, una dimensione culturale. E sarà proprio su questo piano, probabilmente, che si giocherà il futuro dell’AI come possibile “motore” dell’ innovazione.

L'articolo Quanto e come usiamo davvero l’intelligenza artificiale? proviene da Guerre di Rete.

La schermata iniziale di Gemini potrebbe ricevere un restyling

2 Ottobre 2025 ore 14:43

Come quasi tutti i chatbot basati sull’intelligenza artificiale, Gemini ha coltivato fin dall’inizio un aspetto minimalista. All’apertura dell’app, si presenta una schermata iniziale ordinata e, negli ultimi mesi, Google ha testato piccole modifiche all’interfaccia utente. Tuttavia, secondo le ultime indiscrezioni sembra che Google stia considerando un cambio più radicale del modo in cui gli utenti interagiscono con l’app.

[ad#ad-celli]

Nella versione 16.38.62.sa.arm64 dell’app Google è stata individuata una schermata iniziale Gemini riprogettata durante i test. Il layout attuale accoglie l’utente con un messaggio di benvenuto e scorciatoie per gli strumenti principali, come “Crea immagine” e “Ricerca approfondita“. Nel nuovo design, questi pulsanti si spostano verso l’alto per far spazio a un feed scorrevole di suggerimenti.

I suggerimenti visualizzati fungono da spunti di conversazione con un solo tocco. Alcuni evidenziano le capacità di Gemini in fatto di immagini, come “Datemi un look vintage”. Altri mettono in risalto abilità diverse, come l’invio di un notiziario quotidiano, un quiz di biologia di base o la programmazione di un piccolo gioco. Ovviamente essendo queste versioni ancora beta e non pensate per il pubblico, non si sa ancora quando e se questa nuova interfaccia farà capolinea su tutti gli smartphone nella versione stabile.

bitume - diritti sociali e digitali - podcast

di:Unit
5 Luglio 2023 ore 00:00

Bitume, trasmissione radiofonica aperiodica, impreparata e inaspettata, a "cura" di Unit hacklab Milano.

logo-bitume

Mercoledì 5 luglio 2023, dallo studio radio di ZAM

Diritti sociali e digitali

  • Twitter e la rivoluzione francese

  • Immaginazione teoretica

  • API, social media, scraping e la possibilità di informarsi anonimamente

durata: 50 minuti

bitume - mare crudele - podcast

di:Unit
28 Giugno 2023 ore 00:00

Bitume, trasmissione radiofonica aperiodica, impreparata e inaspettata, a "cura" di Unit hacklab Milano.

logo-bitume

Mercoledì 28 giugno 2023, dallo studio radio di ZAM

Mare crudele

  • IBM aveva una sua AI e la chiamava Watson

  • Aggiornamenti sul sottomarino che scese a visitare il Titanic

  • Viaggi su Marte e altri ambienti scomodi che …

Meta Transitions PyTorch to the Linux Foundation, Further Accelerating AI/ML Open Source Collaboration

12 Settembre 2022 ore 15:25

PyTorch Foundation to foster an ecosystem of vendor-neutral projects alongside founding members AMD, AWS, Google Cloud, Meta, Microsoft Azure, and NVIDIA 

DUBLIN – September 12, 2022 –  The Linux Foundation, a global nonprofit organization enabling innovation through open source, today announced PyTorch is moving to the Linux Foundation from Meta where it will live under the newly-formed PyTorch Foundation. Since its release in 2016, over 2400 contributors and 18,0000 organizations have adopted the PyTorch machine learning framework for use in academic research and production environments. The Linux Foundation will work with project maintainers, its developer community, and initial founding members of PyTorch to support the ecosystem at its new home.

Projects like PyTorch—that have the potential to become a foundational platform for critical technology—benefit from a neutral home. As part of the Linux Foundation, PyTorch and its community will benefit from many programs and support infrastructure like training and certification programs, research, and local to global events. Working inside and alongside the Linux Foundation, PyTorch will have access to the LFX collaboration portal—enabling mentorships and helping the PyTorch community identify future leaders, find potential hires, and observe shared project dynamics. 

“Growth around AI/ML and Deep Learning has been nothing short of extraordinary—and the community embrace of PyTorch has led to it becoming one of the five-fastest growing open source software projects in the world,” said Jim Zemlin, executive director for the Linux Foundation. “Bringing PyTorch to the Linux Foundation where its global community will continue to thrive is a true honor. We are grateful to the team at Meta—where PyTorch was incubated and grown into a massive ecosystem—for trusting the Linux Foundation with this crucial effort.”

“Some AI news: we’re moving PyTorch, the open source AI framework led by Meta researchers, to become a project governed under the Linux Foundation. PyTorch has become one of the leading AI platforms with more than 150,000 projects on GitHub built on the framework. The new PyTorch Foundation board will include many of the AI leaders who’ve helped get the community where it is today, including Meta and our partners at AMD, Amazon, Google, Microsoft, and NVIDIA. I’m excited to keep building the PyTorch community and advancing AI research,” said Mark Zuckerberg, Founder & CEO, Meta.

The Linux Foundation has named Dr. Ibrahim Haddad, its Vice President of Strategic Programs, as the Executive Director of the PyTorch Foundation.  The PyTorch Foundation will support a strong member ecosystem with a diverse governing board including founding members: AMD, Amazon Web Services (AWS), Google Cloud, Meta, Microsoft Azure and NVIDIA. The project will promote continued advancement of the PyTorch ecosystem through its thriving maintainer and contributor communities. The PyTorch Foundation will ensure the transparency and governance required of such critical open source projects, while also continuing to support its unprecedented growth.

Member Quotes

AMD

“Open software is critical to advancing HPC, AI and ML research, and we’re ready to bring our experience with open software platforms and innovation to the PyTorch Foundation,” said Brad McCredie, corporate vice president, Data Center and Accelerated Processing, AMD. “AMD Instinct accelerators and ROCm software power important HPC and ML sites around the world, from exascale supercomputers at research labs to major cloud deployments showcasing the convergence of HPC and AI/ML. Together with other foundation members, we will support the acceleration of science and research that can make a dramatic impact on the world.”

Amazon Web Services

“AWS is committed to democratizing data science and machine learning, and PyTorch is a foundational open source tool that furthers that goal,” said Brian Granger, senior principal technologist at AWS. “The creation of the PyTorch Foundation is a significant step forward for the PyTorch community. Working alongside The Linux Foundation and other foundation members, we will continue to help build and grow PyTorch to deliver more value to our customers and the PyTorch community at large.”

Google Cloud

“At Google Cloud we’re committed to meeting our customers where they are in their digital transformation journey and that means ensuring they have the power of choice,” said Andrew Moore, vice president and general manager of Google Cloud AI and industry solutions. “We’re participating in the PyTorch Foundation to further demonstrate our commitment of choice in ML development. We look forward to working closely on its mission to drive adoption of AI tooling by building an ecosystem of open source projects with PyTorch along with our continued investment in JAX and Tensorflow.”

Microsoft Azure

“We’re honored to participate in the PyTorch Foundation and partner with industry leaders to make open source innovation with PyTorch accessible to everyone,” Eric Boyd, CVP, AI Platform, Microsoft, said. “Over the years, Microsoft has invested heavily to create an optimized environment for our customers to create, train and deploy their PyTorch workloads on Azure. Microsoft products and services run on trust, and we’re committed to continuing to deliver innovation that fosters a healthy open source ecosystem that developers love to use. We look forward to helping the global AI community evolve, expand and thrive by providing technical direction based on our latest AI technologies and research.”

NVIDIA

“PyTorch was developed from the beginning as an open source framework with first-class support on NVIDIA Accelerated Computing”, said Ian Buck, General Manager and Vice President of Accelerated Computing at NVIDIA. “NVIDIA is excited to be an originating member of the PyTorch Foundation to encourage community adoption and to ensure using PyTorch on the NVIDIA AI platform delivers excellent performance with the best experience possible.”

Additional Resources:

  • Visit pytorch.org to learn more about the project and the PyTorch Foundation
  • Read Jim Zemlin’s blog discussing the PyTorch transition
  • Read Meta AI’s blog about transitioning PyTorch to the Linux Foundation
  • Read this blog from Soumith Chintala, PyTorch Lead Maintainer and AI Researcher at Meta, about the future of the project
  • Join Soumith Chintala and Dr. Ibahim Haddad for a fireside chat on Thursday, September 15, at 3pm GMT / 11am ET / 8am PT
  • Learn more about PyTorch training opportunities from the Linux Foundation
  • Follow PyTorch on Facebook, LinkedIn, Spotify, Twitter, and YouTube

About the Linux Foundation

Founded in 2000, the Linux Foundation and its projects are supported by more than 3,000 members. The Linux Foundation is the world’s leading home for collaboration on open source software, hardware, standards, and data. Linux Foundation projects are critical to the world’s infrastructure including Linux, Kubernetes, Node.js, ONAP, Hyperledger, RISC-V, PyTorch, and more. The Linux Foundation’s methodology focuses on leveraging best practices and addressing the needs of contributors, users, and solution providers to create sustainable models for open collaboration. For more information, please visit us at linuxfoundation.org.

###

The Linux Foundation has registered trademarks and uses trademarks. For a list of trademarks of The Linux Foundation, please see our trademark usage page:  https://www.linuxfoundation.org/trademark-usage. Linux is a registered trademark of Linus Torvalds.

Media Contact

Dan Whiting

for the Linux Foundation

202-531-9091

dwhiting@linuxfoundation.org

The post Meta Transitions PyTorch to the Linux Foundation, Further Accelerating AI/ML Open Source Collaboration appeared first on Linux Foundation.

❌