Colpo di scena, gli italiani dovranno ancora attendere per ottenere trasparenza, sicurezza e maggiori tutele.
L’UE rallenta su una legge che sembrava in dirittura di arrivo. E a farne le spese, come al solito, saranno i cittadini degli Stati membri, che si aspettavano un nuovo regolamento, chiaro e funzionale. La posta in gioco è alta. Si tratta di proteggere gli utenti da rischi legati alla sorveglianza invasiva, alle discriminazioni e alle manipolazioni.
La legge in stand-by è l’AI Act, cioè il regolamento europeo sull’uso e lo sviluppo dell’intelligenza artificiale, approvato nel 2024 e in fase di applicazione progressiva dal 2025. Si tratta della prima normativa completa al mondo dedicata al problema della gestione dell’intelligenza artificiale, stabilendo regole comuni per tutti i Paesi dell’Unione Europea.
Trattandosi di un regolamento UE, quindi direttamente applicabile negli Stati membri, tale novità non avrà bisogno di leggi nazionali di recepimento. Ma l’entrata in vigore è stata di nuovo rimandata.
E così cresce la delusione fra tutti coloro che si aspettavano di conoscere presto le nuove tutele tese a garantire che i sistemi di AI diventino più sicuri e trasparenti, maggiormente tracciabili, non discriminatori e, soprattutto, più rispettosi dei diritti fondamentali.
L’UE ha deciso di rinviare l’entrata in vigore delle regole sull’intelligenza artificiale spostando alcune scadenze fino al 2027. La scelta nasce evidentemente da una pressione esterna. Cioè quella delle grandi aziende tecnologiche, che chiedono più tempo per adeguarsi alle nuove regole.
Con l’AI Act l’Europa vuole classificare i sistemi, suddividendo le AI in categorie di rischio. Da minimo a limitato, da alto a inaccettabile. Il regolamento impone anche l’obbligo di informare gli utenti quando interagiscono con un sistema AI o con contenuti generati da un chatbot.
Inoltre vuole obbligare i fornitori e gli sviluppatori a garantire audit, documentazione e controlli di sicurezza. Tutto ciò per creare un quadro chiaro che favorisca lo sviluppo di un’intelligenza artificiale più etica e meno pericolosa.
Nel concreto l’AI Act vuole porre un divieto di pratiche ad alto rischio come il social scoring o la sorveglianza biometrica di massa. E vuole sviluppare anche delle regole severe per l’uso dell’intelligenza artificiale in settori sensibili, come la sanità, la giustizia, il lavoro e il credito.
L’altra introduzione interessante è quella di un’etichettatura dei contenuti generati da AI. Sotto i contenuti generati da un’intelligenza artificiale dovrebbero comparire delle didascalie chiare che mettono subito in evidenza la natura del materiale: se è un deepfake, se è un testo scritto da un chatbot o una risposta data da un assistente virtuale.
In più si parla dell’introduzione del diritto di contestare decisioni automatizzate e di richiedere l’intervento umano. Se chiedo per esempio un prestito a una banca e la mia richiesta viene rifiutata da un chatbot, posso chiedere che la mia situazione sia analizzata da un uomo.
Tutte cose importanti. Ma che non saranno realizzate entro il 2026 come aveva promesso l’UE. Sostanzialmente perché Google, OpenAI, Meta e Apple hanno fatto resistenza.
This post was published on 24 Novembre 2025 6:51
Zootropolis 2 è uno dei sequel Disney più attesi e sta arrivando al cinema. Ma…
Una giovane donna di nome Evelyn Deane è misteriosamente scomparsa: in The Seance of Blake…
La doppiatrice di Aerith di Final Fantasy VII, non ha preso molto bene il fatto…
Quale sarà il futuro dell'assistente Siri di Apple? Questa decisione quali ripercussioni avrà sul suo…
Su Amazon Prime Video arriva una novità di alto profilo che può cambiare non solo…
Quanto sarà differente Judas dai capitolo di Bioshock? Ecco i nuovi dettagli rivelati direttamente da…