Intelligenza Artificiale: sta arrivando la legge che la regolamenta, ecco cosa cambierà

Un robot che pensa

Sembra sempre più urgente un intervento dei Governi in grado di regolare e limitare le moderne intelligenze artificiali e le aziende

Da quando le nuove IA stanno diventando sempre più presenti nel mercato e nella vita di tutti i giorni è aumentata la preoccupazione. Appare sempre più necessario stabilire delle regole sia per le aziende che per il corretto funzionamento di queste nuove tecnologie.

Sembra necessaria la nascita di una regolamentazione che stabilisca i limiti e le basi per un futuro sempre più a contatto con le intelligenze artificiali.

La proposta di OpenAI

Sam Altman, CEO di OpenAI, ha esortato i legislatori a prendere in considerazione la possibilità di regolamentare l’IA durante la sua testimonianza al Senato degli Stati Uniti del 16 maggio 2023. Le soluzioni proposte da Altman – la creazione di un’agenzia di regolamentazione dell’IA e la richiesta di licenze per le aziende – sono interessanti. Ma quelle suggerite dagli altri esperti dello stesso panel sono almeno altrettanto importanti: richiedere trasparenza sui dati di addestramento e stabilire quadri chiari per i rischi legati all’IA.

Samuel Altman

Un altro punto lasciato in sospeso è che, data l’economia della costruzione di modelli di IA su larga scala, il settore potrebbe assistere all’emergere di un nuovo tipo di monopolio tecnologico.

Come evitare i rischi?

I legislatori e i politici di tutto il mondo hanno già iniziato ad affrontare alcune delle questioni sollevate nella testimonianza di Altman. L’AI Act dell’Unione Europea si basa su un modello di rischio che assegna le applicazioni di IA a tre categorie di rischio: inaccettabile, ad alto rischio e a rischio basso o minimo. Questa categorizzazione riconosce che gli strumenti per il social scoring da parte dei governi e gli strumenti automatizzati per le assunzioni presentano rischi diversi da quelli derivanti dall’uso dell’IA nei filtri antispam, ad esempio.

Agenzie federali come la Equal Employment Opportunity Commission e la Federal Trade Commission hanno già emanato linee guida su alcuni dei rischi insiti nell’IA. Anche la Consumer Product Safety Commission e altre agenzie hanno un ruolo da svolgere.

Serve un garante?

Piuttosto che creare una nuova agenzia che rischia di essere compromessa dall’industria tecnologica che dovrebbe regolamentare, il Congresso può sostenere l’adozione pubblica e privata del quadro di gestione del rischio del NIST e approvare proposte di legge come l’Algorithmic Accountability Act. Ciò avrebbe l’effetto di imporre la responsabilità, proprio come la legge Sarbanes-Oxley e altre normative hanno trasformato i requisiti di rendicontazione per le aziende.

Sebbene Altman di OpenAI abbia suggerito che le aziende potrebbero essere autorizzate a rilasciare tecnologie di intelligenza artificiale al pubblico, ha chiarito che si riferiva all’intelligenza artificiale generale, ovvero a potenziali futuri sistemi di intelligenza artificiale con intelligenza simile a quella umana che potrebbero rappresentare una minaccia per l’umanità. Sarebbe come se le aziende avessero la licenza per gestire altre tecnologie potenzialmente pericolose, come l’energia nucleare. Ma le licenze potrebbero svolgere un ruolo ben prima che si verifichi uno scenario così futuristico.

Un lavoro collettivo

L’audit algoritmico richiederebbe credenziali, standard di pratica e una formazione approfondita. La richiesta di responsabilità non è solo una questione di licenze individuali, ma richiede anche standard e pratiche a livello aziendale.

Robot

Gli esperti di equità nell’IA sostengono che i problemi di parzialità ed equità nell’IA non possono essere affrontati solo con metodi tecnici, ma richiedono pratiche più complete di mitigazione del rischio, come l’adozione di comitati di revisione istituzionale per l’IA. I comitati di revisione istituzionale in campo medico aiutano a difendere i diritti individuali, ad esempio.

Anche gli organismi accademici e le società professionali hanno adottato standard per un uso responsabile dell’IA, sia che si tratti di standard di paternità per i testi generati dall’IA, sia che si tratti di standard per la condivisione di dati mediati dal paziente in medicina.

Rafforzare gli statuti esistenti in materia di sicurezza, privacy e protezione dei consumatori, introducendo al contempo norme di responsabilità algoritmica, aiuterebbe a demistificare i complessi sistemi di IA. È anche importante riconoscere che una maggiore responsabilità e trasparenza dei dati può imporre nuove restrizioni alle organizzazioni.

Gli studiosi della privacy dei dati e dell’etica dell’IA hanno chiesto un “giusto processo tecnologico” e quadri di riferimento per riconoscere i danni dei processi predittivi. L’uso diffuso di processi decisionali basati sull’IA in settori quali l’occupazione, le assicurazioni e l’assistenza sanitaria richiede requisiti di autorizzazione e revisione per garantire l’equità delle procedure e la tutela della privacy.

La richiesta di tali disposizioni di responsabilità, tuttavia, richiede un robusto dibattito tra gli sviluppatori di IA, i responsabili politici e coloro che sono interessati da un’ampia diffusione dell’IA. In assenza di forti pratiche di responsabilità algoritmica, il pericolo è rappresentato da controlli ristretti che promuovono l’apparenza della conformità.

Rischi di monopoli

Ciò che è mancato nella testimonianza di Altman è l’entità degli investimenti necessari per addestrare modelli di IA su larga scala, che si tratti del GPT-4, che è una delle basi di ChatGPT, o del generatore di testo-immagine Stable Diffusion. Solo poche aziende, come Google, Meta, Amazon e Microsoft, sono responsabili dello sviluppo dei modelli linguistici più grandi al mondo.

Schermata di ChatGPT

Data la mancanza di trasparenza nei dati di addestramento utilizzati da queste aziende, gli esperti di etica dell’IA Timnit Gebru, Emily Bender e altri hanno avvertito che l’adozione su larga scala di queste tecnologie senza una corrispondente supervisione rischia di amplificare i pregiudizi delle macchine su scala sociale.

È inoltre importante riconoscere che i dati di addestramento per strumenti come ChatGPT includono il lavoro intellettuale di una serie di persone, come i collaboratori di Wikipedia, i blogger e gli autori di libri digitalizzati. I benefici economici di questi strumenti, tuttavia, sono appannaggio delle sole aziende tecnologiche.