Parli con l’AI di Meta? Fai attenzione: le tue conversazioni non sono sicure come pensi

Pericoli conversazioni ai

A una prima sommaria analisi le conversazioni che si possono avere con le intelligenze artificiali recentemente integrate da meta nelle sue piattaforme sono prive di crittografia, non un dettaglio di poco conto.

Abbiamo recentemente parlato della bislacca idea di Facebook di copiare Replika e di creare degli utenti fittizi utilizzando le fattezze di note personalità del web. Personas, una delle tantissime istanze in cui è diviso Meta AI, è una funzione che in molti hanno descritto come poco efficace e quantomeno inquietante ma che sicuramente riuscirà a strappare più di un sorriso a qualche frammento di pubblico della piattaforma.

C’è però un “ma” che ha fatto balzare sulla sedia tutti quelli che si occupano di privacy e intelligenza artificiale: l’assenza di crittografia end-to-end all’interno delle conversazioni che un utente intraprende con l’intelligenza artificiale, personas o assistente personale che quest’ultima sia.

Niente crittografia per migliorare la velocità di apprendimento delle AI? Forse

È il Matrix? Forse assomiglia di più a quello che vede un hacker in caso di messaggi crittografati end-to-end

Premessa: la funzione non è ancora arrivata tanto in Italia quanto in Europa; le leggi Europee sull’intelligenza artificiale da poco arrivate sotto forma di AI Act allungano la trafila burocratica che le aziende devono affrontare per portare i loro prodotti da noi, così da offrire un maggiore livello di sicurezza nei confronti degli utenti utilizzatori finali. 

Secondo Mashable l’assenza di crittografia nelle conversazioni tra utente e intelligenza artificiale non è stata nemmeno nascosta: basta aprire una finestra di conversazione su Instagram per notare come manchi proprio l’indicatore in alto a destra. Andando a sbirciare nelle informazioni della conversazione l’opzione per attivare la crittografia end-to-end è direttamente grigiata e in caso di interazione riporterà semplicemente il messaggio alcuni utenti non possono ancora utilizzare al momento la crittografia end-to-end.

Riassumendo, quindi, al momento è impossibile conversazione con una AI persona o con l’assistente virtuale di Facebook sfruttando la crittografia per tenere al sicuro i nostri dati. Chiunque vi abbia detto nel corso della vita di non comunicare mai dati personali alle intelligenze artificiali, beh, aveva un buon motivo per farlo. Le motivazioni non sono chiare ma è legittimo pensare che sia per una questione di training dell’intelligenza artificiale con i dati che gli offriamo attraverso le conversazioni.

Uno dei problemi più grandi legati al mondo della privacy in questo panorama, dove l’intelligenza artificiale di carattere generativo fa sempre più rapidi passi verso la pervasività, è l’enorme quantità di dati che possono venire raccolti senza le giuste regole dietro. Questi dati possono essere utilizzati grossolanamente per due diversi scopi: fornire alle aziende informazioni dettagliate sui loro utenti o addestrare ulteriormente il modello di intelligenza artificiale generativa, così da ottenere prestazioni migliori nelle successive iterazioni.

Considerando che Meta, di per sé, è tutto fuorché un buon partito quando parliamo di utilizzi sconsiderati dei dati personali (non so se qualcuno si ricorda di Cambridge Analytica) o le situazioni in cui Facebook ha consegnato a enti terzi dati personali contro la volontà del proprietario degli stessi, la situazione è tutto fuorché rosa. A questo aggiungiamo il pop-up  che si riceve dopo aver provato per la prima volte i messaggi AI all’interno di WhatsApp, che tuona rapidamente con “Meta può sfruttare i tuoi messaggi all’AI per migliorarne la qualità; i messaggi personali non vengono mai inviati a Meta, non possono essere letti e rimangono criptati con sistema end-to-end”

Come si posiziona Meta tra le realtà che offrono questo genere di servizi? Male

Incredibile ma vero ma Chat GPT e più in generale Open AI offrono strumento per effettuare l’opt-out

Quello che risulta da tutta questa faccenda è che, ancora una volta, Meta non ha messo sul campo delle policy chiare sul funzionamento della privacy in relazione. Un buon modo per capire a che punto della storia siamo è dare un’occhiata alla policy per la gestione della IA generativa che esplicitamente, dice che quando l’utente chatta con l’intelligenza artificiale i messaggi saranno utilizzati per allenare la stessa.

L’assenza di una qualsiasi opzione per operare un opt-out rappresenta un problema non di poco conto per chi vuole utilizzare Meta AI senza però voler regalare i propri dati, anche personali, alla piattaforma per poter continuare ad allenare i modelli. Fortunatamente per lui e sfortunatamente per noi utenti finali, anche Google Bard e Microsoft Bing sono al momento del tutto sprovvisti di questo genere di opzione, al netto della possibilità di cancellare ogni traccia della propria attività.

Quello che rimane alla fine di questo lungo discorso in mano a noi poveri utenti finali è un manipolo di domande a dir poco scoraggianti: abbiamo davvero bisogno di continuare a discutere con l’intelligenza artificiale? C’era davvero bisogno di fare in modo che molti personaggi famosi impiegassero il loro volto per rendere popolare una cosa che è più appariscente che effettivamente utile? Facebook starà alimentando i data center che regolano tutto il machine learning che gira intorno all’utilizzo dei chatbot con fonti di energia pulite o sta contribuendo ulteriormente ad aggravare la crisi climatica ed ecologica che ci porteremo dietro durante il corso dei prossimi decenni?