L’agente IA d Google noto come Antigravity, avrebbe interpretato male un comando di un utente, cancellando un’intera partizione di dati dal PC.
L’IA è il futuro e bisogna accettarlo. Una frase che si sente sempre più spesso e che non può non essere vera: è innegabile che l’IA stia entrando, in maniera sempre più rapida e invasiva, in ogni aspetto del mondo “produttivo” e lavorativo, con le grandi corporazioni del tech che hanno iniziato ormai una corsa all’oro, per tentare di ottenere il modello di IA più performante in ogni ambito. La cosa però, non è scevra da criticità.

In tanti chiedono a gran voce maggior regolamentazione per l’utilizzo dell’IA e i vari casi di personale licenziato, magari proprio dopo aver finito di “addestrare” un’IA, sono emblematici del discorso che nessuno pare voler affrontare seriamente, a livello sociale e politico. Ma pensando a implicazioni diverse, come quelle dell’obbedienze dell’IA all’uomo, sono altri i problemi che nascono e che a quanto pare, anche ai “piani alti” sono difficile da controllare.
Il caso Antigravity
Google, come tante altre big del tech in tutto il mondo, sta portando avanti ricerche continue sull’IA. Per farlo, ha dato vita a uno spazio virtuale chiamato IDE (Integrated Development Environment) che permette agli sviluppatori di raggruppare tutti gli strumenti necessari per scrittura di codici, debugging e tutte le altre azioni che potrebbero essere necessarie. A questo punto però, nasce un problema.
L’intento di Google (come di altre aziende) è quello di sviluppare modelli IA che possano essere indipendenti e che riescano ad autogestirsi. Antigravity è esattamente questo: un modello IA che permette agli sviluppatori di occuparsi di altre faccende, mentre continua a scrivere codici o gestire tutti i vari comandi dati in precedenza. Bisogna stare molto attenti a ciò che si chiede.
Lo ha imparato a sue spese uno sviluppatore che, come racconta, avrebbe assistito inerme ad Antigravity che cancellava l’intero contenuto della partizione D: del suo computer. Alla base vi sarebbe un comando mal interpretato e un’inspiegabile mancanza di richiesta di autorizzazioni ulteriori. Lo sviluppatore era al lavoro su una piccola applicazione. Per completare l’operazione, era necessario ripulire le cache e, una volta inserito il comando di “cancellare tutto”, l’IA ha chiaramente capito qualcosa di diverso.
Tutti i file del drive sono stati eliminati e nonostante i tentativi dello sviluppatore di recuperarli, non c’è stato modo. Quando lo stesso dev ha chiesto spiegazioni all’IA, su quella scellerata azione, Antgravity avrebbe risposto in modo “emotivo”, dicendosi profondamente dispiaciuto per l’accaduto. Un evento davvero peculiare, che mostra quanto l’IA possa risultare imprevedibile, anche per chi giornalmente la maneggia a livello professionale.
