Si corre ai ripari su privacy e AI, Microsoft mette una toppa e presenta un nuovo progetto

microsoft corre ai ripari sulla privacy delle ai

Pochi mesi fa, un incidente causato da alcuni imprudenti impiegati di Samsung e dall’utilizzo selvaggio delle IA ha convinto Microsoft a prendere delle misure cautelative per non incorrere in problemi con la sicurezza e la privacy, temi di cui si parla quotidianamente in materia di IA.


A marzo 2023, è stato riferito che alcuni dipendenti di Samsung sono stati licenziati per aver utilizzato ChatGPT, l’intelligenza artificiale conversazionale sulla bocca di tutti sviluppata da OpenAI, in modo imprudente e rischioso per la sicurezza dell’azienda tech. A quanto pare gli impiegati avrebbero rivelato informazioni aziendali sensibili all’IA. I dipendenti in questione, infatti, avrebbero utilizzato ChatGPT per generare risposte su prodotti e tecnologie di Samsung, che poi avrebbero condiviso con i concorrenti o con i media.

L’incidente ha sollevato preoccupazioni sulla sicurezza circa l’utilizzo dell’intelligenza artificiale da parte delle aziende. ChatGPT è un potente strumento che può essere utilizzato per generare testi realistici e coerenti, il che lo rende un’arma ideale per gli hacker che cercano di rubare informazioni sensibili. Le aziende che utilizzano l’intelligenza artificiale sono sempre più consapevoli dei potenziali rischi e stanno cercando di adottare misure per proteggere i propri dati.

Nel caso di Samsung, l’incidente ha avuto un impatto significativo sull’azienda. Samsung ha dovuto licenziare diversi dipendenti e ha dovuto affrontare una perdita di reputazione. L’incidente ha anche portato l’azienda a rivedere le sue politiche sull’utilizzo dell’intelligenza artificiale. Samsung ha affermato che ora implementerà controlli più rigorosi per impedire l’accesso ai suoi dati da parte di terze parti.

IA e sicurezza: un tema sempre attuale

L’intelligenza artificiale è una tecnologia potente che può essere utilizzata per migliorare la sicurezza, ma è indubbio che gli attacchi alla privacy destano sempre preoccupazione. L’IA viene utilizzata dalle aziende per tantissimi scopi molto utili, ad esempio rilevare anomalie nei dati che potrebbero indicare un attacco informatico, automatizzare le attività di sicurezza, come la scansione dei file, fornire una visione completa della rete aziendale, rendendo più facile identificare e mitigare le minacce alla sicurezza.

Tuttavia, l’IA presenta anche dei rischi per la sicurezza stessa. LIA può essere utilizzata per creare malware più sofisticati che sono in grado di evadere i tradizionali sistemi di sicurezza, oppure per diffondere disinformazione che potrebbe danneggiare la reputazione di un’azienda. E per l’appunto, può accadere ciò che è successo alla Samsung.

Le aziende più importanti, tra cui Google e Microsoft, stanno adottando varie misure per non incorrere in queste controversie, come implementare controlli di sicurezza specifici per l’IA e formare i dipendenti sui rischi del suo utilizzo.

Proprio Microsoft ha deciso di recente di rendere la sua IA a prova di fuga di dati.

L’IA di Microsoft adesso è perfetta per le aziende

Mercoledì scorso, Microsoft ha annunciato una versione di Bing Chat adatta alle aziende, in modo da poter utilizzare il chatbot per il lavoro senza rischiare qualche tipo di violazione della sicurezza.

Chatbot come Bing, ChatGPT e Bard sono potenti strumenti che possono aumentare la produttività dei lavoratori. Possono riassumere grandi quantità di testo, generare codice e aiutare a creare nuove idee. Ma l’utilizzo di chatbot comporta notevoli rischi per la privacy, in quanto i modelli linguistici di grandi dimensioni possono utilizzare le conversazioni dell’utente per migliorare le risposte. Le cronologie delle chat vengono inoltre salvate nei server delle aziende.

Questi rischi sono diventati dolorosamente evidenti quando i lavoratori di Samsung hanno inavvertitamente rivelato segreti commerciali utilizzando ChatGPT per effettuare il debug del codice e per riassumere le note di riunioni private. Per questo motivo, molte aziende, come Apple e persino Google, hanno vietato o messo in guardia dall’uso di ChatGPT sul posto di lavoro. Ad aprile, OpenAI ha introdotto la possibilità di non condividere la cronologia delle chat per risolvere i problemi di privacy.

Microsoft invece ha presentato Bing Chat Enterprise, una versione di Bing Chat pensata per le aziende e dotata di funzioni di sicurezza integrate progettate per evitare un altro incidente in stile Samsung. Secondo quanto annunciato da Microsoft, i dati delle chat all’interno di Bing non verranno salvati, non verranno utilizzati per addestrare i modelli linguistici su cui si basano le IA e che essa stessa non avrà “alcun accesso” alle conversazioni.