Capire la finanza, per capire il mondo FOLLOW THE MONEY

Negli ultimi giorni, la battaglia legale che ha coinvolto l’azienda Anthropic e migliaia di autori statunitensi ha vissuto un nuovo colpo di scena. Il giudice federale William Alsup ha deciso di respingere l’accordo da 1,5 miliardi proposto dall’azienda e formalmente accettato dai legali degli autori. Il motivo, secondo Alsup, sarebbe una proposta “incompleta” e “poco trasparente”, che non garantisce agli autori gli strumenti adeguati per far valere i propri diritti nel disordine burocratico e amministrativo.

Un passo indietro: chi è Anthropic

Anthropic è una start-up statunitense fondata nel 2021 da ex ricercatori di OpenAI, con l’obiettivo di creare modelli di intelligenza artificiale più sicuri e trasparenti. Claude è il suo sistema di intelligenza artificiale, recentemente aperto al mercato globale (Italia inclusa). Claude non è altro che un classico chatbot: un po’ come Chatgpt o Gemini, risponde all’utente quando riceve un prompt o un comando, è in grado di analizzare immagini e file di testo, di tradurre, codificare e semplificare. La differenza con altri suoi simili, secondo i due fondatori, i fratelli italo-americani Daniela e Dario Amodei, sarebbe quella di riuscire ad evitare la generazione automatica di dati sbagliati o fuorvianti, le cosiddette allucinazioni. Inoltre, secondo i creatori, sarebbe dieci volte più capace di difendersi dai jailbreak, cioè i tentativi di aggirare le misure di protezione insegnate all’IA durante l’addestramento.

Perché la class action

Il 19 agosto dello scorso anno, un gruppo di autori – tra cui Andrea Bartz e Charles Graeber – decide di intraprendere una class action contro Anthropic. Secondo questi ultimi, l’azienda avrebbe utilizzato illegalmente i loro libri – scaricandoli da siti piratati – per addestrare i suoi modelli di IA, tra cui il chatbot Claude.

Già nel 2023, un gruppo di autori – tra cui il giornalista Ta-Nehisi Coates – aveva fatto causa a Meta, accusandolo similmente di aver violato i loro diritti d’autore, scaricando milioni di libri da siti piratati per addestrare modelli linguistici. Il caso, conosciuto come Kadrey vs Meta, si è concluso in positivo per l’impresa: secondo il giudice Vince Chabria, infatti, l’uso di quei libri rientrava nel “fair use” in quanto pensato non per leggerli o venderli, ma per addestrare un modello linguistico. Inoltre, secondo Chabria, i querelanti non avevano presentato prove sufficienti per dimostrare che l’uso dei loro libri da parte di Meta costituisse un danno.

Nel giugno di quest’anno, il giudice Alsup emette una sentenza parziale che arriva più o meno alla stessa conclusione: riconosce che l’addestramento di modelli IA utilizzando libri protetti può rientrare nel “fair use”. Tuttavia, stabilisce anche che Anthropic ha commesso un’infrazione che non rientrerebbe nell’uso lecito, ovvero aver conservato i suddetti libri (si parla di milioni) in un archivio centrale, senza pagarne i diritti. Così, la questione viene rimandata a giudizio, e nel frattempo Anthropic si assicura di formulare un accordo impossibile da rifiutare: 1,5 miliardi di dollari. circa 3.000 per libro coinvolto, oltre alla promessa di distruggere tutti i libri piratati. Ma Alsup rimanda anche l’approvazione dell’accordo, evidenziando la mancanza di alcuni dettagli, come ad esempio quali opere saranno incluse e come gli autori verranno informati. L’udienza successiva è prevista per il 25 settembre.

Un caso emblematico, non isolato

Questa class action, molto più ingente di quella intrapresa contro Meta da pochi autori anni fa, potrebbe essere la goccia che fa traboccare il vaso. Intanto Anthropic è coinvolta anche in un’altra causa intentata da un gruppo di etichette discografiche, tra cui Universal Music Group, per aver apparentemente utilizzato testi protetti da copyright e per aver scaricato illegalmente canzoni da BitTorrent per addestrare Claude.

Da anni ormai autori, editori, musicisti e artisti sostengono che l’intelligenza artificiale abbia contribuito ad acuire le difficoltà di un lavoro già pieno di rischi come quello creativo, creando una concorrenza sleale, aggirando copyright e consenso. Negli Stati Uniti si discute spesso della troppa flessibilità della dottrina del fair use, laddove le aziende tech riescono a nascondere l’utilizzo di migliaia di opere protette senza autorizzazione dietro lo scudo della “trasformatività”. In poche parole, non sono perseguibili in determinati casi perché le loro azioni, seppur illegali, implementano la creatività e promuovono il progresso scientifico. Il fair use diventa una difesa legale fondamentale per le aziende tecnologiche e la decisione di Alsup potrebbe essere la prima a scardinarla nel contesto dell’IA generativa.

L’Unione Europea, invece, ha un approccio molto più restrittivo e regolatorio. Nel luglio di quest’anno infatti ha reso pubblico il codice GPAI (General Purpose-AI), nell’ambito dell’AI Act, che, seppur non obbligatorio, può diventare per le aziende una sicurezza a livello legale e amministrativo. Nel codice sono inclusi elementi come la disciplina alla trasparenza, (gli sviluppatori dovranno provare la correttezza dei dati raccolti attraverso la compilazione di moduli), il rispetto del diritto d’autore e misure preventive per garantire la protezione contro abusi e vulnerabilità.

Il caso Anthropic riaccende il dibattito su come l’intelligenza artificiale stia ridefinendo il rapporto tra creatività e tecnologia. Non è praticabile attuare un approccio troppo permissivo, che incoraggia la sperimentazione ma rischia di svalutare le opere dell’essere umano. Allo stesso tempo, avere regole più rigide tutela il consenso esplicito dei creatori ma rischia di soffocare lo sviluppo dell’IA, che ha il potenziale di generare enormi benefici per l’umanità. La vera domanda da porsi è: fino a che punto possiamo attingere dal patrimonio culturale e umano esistente per costruire le tecnologie del futuro, senza rischiare di distruggerlo per sempre?

Abbonati e diventa uno di noi

Se l’articolo che hai appena letto ti è piaciuto, domandati: se non l’avessi letto qui, avrei potuto leggerlo altrove? Se pensi che valga la pena di incoraggiarci e sostenerci, fallo ora.

Non sei abbonato o il tuo abbonamento non permette di utilizzare i commenti. Vai alla pagina degli abbonamenti per scegliere quello più adatto