Un teatrino assurdo: OpenAI e il New York Times si accusano a vicenda di hacking e molto altro

new york times contro openai

Continua la lotta senza frontiere tra OpenAI e il New York times per la violazione del copyright, stavolta con OpenAI che contrattacca accusando il NYT di… aver hackerato ChatGpt.

Il 2023 è stato un anno senza dubbio impegnativo per OpenAI, che mentre si faceva strada nel mondo delle aziende più chiacchierate e amate/odiate del pianeta Terra aveva anche la necessità di sopravvivere ad attacchi legali di vario genere. 

Tra questi quello che forse è più “noto” è quello compiuto dalla testata giornalistica americana New York Times, che ha denunciato tanto OpenAI quanto Microsoft con l’accusa di aver impiegato gli articoli giornalistici presenti sulla piattaforma senza autorizzazione durante il processo di addestramento dei modelli di intelligenza artificiale utilizzati poi per far funzionare ChatGPT:

Ricordiamo brevemente una cosa: ChatGPT funziona sulla base di un large language model che è in grado di interpretare i testi. Questo sistema di interpretazione è stato creato da OpenAI per la sua piattaforma attraverso lo scraping, ovvero la raccolta di dati e la lettura da parte di un gigantesco sistema informatico alimentato da potentissime schede video Nvidia, di una quantità infinita di siti internet, gli stessi siti internet che sono proni a denunciarti se utilizzi il loro materiale per scopi che non sono previsti dai termini e le condizioni d’uso.

ContrattaccoGPT

open ai logo

All’interno di un nuovo documento reso recentemente pubblico da OpenAI, la compagnia di Sam Altman dichiara che il NYT per portare avanti questa causa ha fatto sostanzialmente cherrypicking , andando a selezionare dei risultati anomali creati appositamente attraverso migliaia di tentativi diversi.

Per fare ciò il NYT non ha fatto altro che sfruttare uno specifico bug di ChatGPT (poi corretto da OpenAI) utilizzando poi istruzioni ingannevoli, compiendo una violazione netta dei termini di utilizzo propri di OpenAI.

OpenAI, quindi, accusa il NYT di aver creato tutta una serie di prompt realizzati appositamente per restituire dei risultati interpretabili come chiare dimostrazioni della violazione del dritto di autore, così da portare l’azienda americana in tribunale.

OpenAI, nello specifico, poi appesantisce ulteriormente l’accusa dichiarato che secondo le loro fonti il NYT avrebbe pagato qualcuno per “hackerare” chatGPT, anche se in questo caso è inutile rimarcarlo, il termine hackerare sembra un poco fuori luogo.

Una lotta per la sopravvivenza tra il vecchio e il nuovo

new york times

Questa vicenda è soltanto l’ennesima che riguarda la dura lotta che sta venendo portata avanti dalle compagnie che utilizzano l’intelligenza artificiale nei confronti di chi vuole esercitare il proprio diritto di autore. 

OpenAI, tra le altre cose, nel documento sopracitato a un certo punto arringa l’essere quasi sicura di poter vincere in tribunale perché, a sua detta, è impossibile che i giudici possano dare al NYT e in generale alle altre controparti in cause similari il diritto di monopolizzare “i fatti o le regole della lingua”. Un’affermazione molto critica, che lascerebbe lo spazio per libri interi scritti sull’argomento e che per il momento evitiamo di analizzare con particolare profondità.

L’unica cosa che possiamo dire da questo punto di vista è che questo è semplicemente l’ennesimo tassello scricchiolante del rapporto tra il mondo dell’intelligenza artificiale generativa e il mondo dell’editoria, se non proprio del diritto di autore. 

Noi vi consigliamo spassionatamente di dare un’occhiata alla montagna di contenuti di valore proposti da EGAIR sull’argomento, perché permettono di avere un certo livello di chiarezza. Quello che deve risultare chiaro fin da subito è che, in questo caso, le compagnie che offrono servizi e sistemi legati all’intelligenza artificiale effettuano lo scraping di dati a scopo di lucro senza ridistribuire in alcuna maniera la ricchezza da loro generata, il tutto andando a creare problemi macro economici derivanti dalla loro scala che non è raggiungibile da aziende senza ingenti fondi sotto (il numero di GPU necessarie a far girare il sistema di apprendimento di un GPT-like è elevato a tal punto da non essere riproducibile senza milioni di euro sotto).