Ai generativa e sicurezza: attenzione ai rischi legati al Copilot di Microsoft

Davvero tanti esperti ritengono che Microsoft Copilot è lo strumento di produttività alimentato da Intelligenza Artificiale (AI) più potente che si possa trovare in tutto il mondo.

Copilot è un assistente alimentato da intelligenza artificiale (AI) integrato in tutti i programmi Microsoft 365 utilizzati, come Word, Excel, PowerPoint, Teams e Outlook, tra gli altri. L’obiettivo a lungo termine di Microsoft è quello di liberare le persone dagli aspetti noiosi del loro lavoro, in modo che possano dedicarsi alla risoluzione di problemi inventivi e pieni di risorse.

microsoft ai copilot intelligenza artificiale
Adobe Stock

Poiché può accedere a tutto ciò su cui avete lavorato in 365, Copilot è un animale molto diverso da ChatGTP e da altre soluzioni di intelligenza artificiale.È questo che lo distingue dalla concorrenza. Copilot è in grado di effettuare una ricerca e una compilazione rapida di dati da tutti i vostri file, compresi documenti, presentazioni, e-mail, calendari e note.

E qui sta la sfida per i team responsabili della sicurezza delle informazioni. Copilot ha accesso a tutti i dati sensibili di un utente, una quantità spesso eccessiva di informazioni. Nella maggior parte delle aziende, solo il dieci per cento dei dati di M365 è disponibile per tutti i dipendenti.

Inoltre, la velocità con cui Copilot può produrre nuovi dati sensibili da proteggere è impressionante. Prima dell’avvento della rivoluzione dell’intelligenza artificiale, la capacità degli esseri umani di generare e distribuire dati superava di gran lunga la loro capacità di mantenerli al sicuro. Basta guardare l’andamento delle violazioni dei dati. La situazione infiammabile è ulteriormente aggravata dall’IA generativa.

Per quanto riguarda l’Intelligenza Artificiale (AI) generativa in generale, ci sono molte cose ancora sulle quali discutere, come l’avvelenamento dei modelli, l’allucinazione, i deepfakes e altri fenomeni simili. In questo saggio, tuttavia, mi concentrerò sul tema della sicurezza dei dati e discuterò le misure che il vostro team può adottare per garantire un lancio di Copilot privo di rischi.

Alcuni esempi di utilizzo di Microsoft 365 Copilot

Se abbinato a una suite di collaborazione come M365, le possibilità di utilizzo dell’IA generativa sono praticamente infinite. Non è difficile capire perché molti team di information technology e di sicurezza informatica si stiano contendendo l’accesso anticipato e stiano pianificando il lancio. Ci sarà un aumento significativo della produzione.

Ad esempio, si potrebbe avviare un documento Word vuoto e chiedere a Copilot di generare una proposta per un cliente sulla base di un set di dati di destinazione costituito da pagine OneNote, maschere PowerPoint e altri documenti di Office. L’operazione verrebbe eseguita sulla base delle informazioni contenute nel set di dati di destinazione. In un paio di secondi si può avere una proposta completamente sviluppata e pronta per l’uso.

Altri esempi forniti da Microsoft durante l’evento di lancio sono i seguenti:

  • Copilot è in grado di partecipare alle riunioni di Teams, di riassumere in tempo reale ciò che viene discusso, di prendere appunti sui punti d’azione e di informare l’utente di eventuali domande a cui non è stata data risposta durante la riunione.
  • La posta in arrivo può essere gestita in modo più efficiente con l’aiuto del Copilot di Outlook, che può anche assegnare priorità ai messaggi, riassumere le discussioni e produrre risposte per conto dell’utente.
  • La funzione Copilot di Excel è in grado di analizzare i dati grezzi e di fornire approfondimenti, modelli e raccomandazioni.

Quali sono le principali funzionalità di Microsoft 365 Copilot

Riportiamo ora una breve sintesi delle fasi di elaborazione di un prompt Copilot:

  • Una domanda viene mostrata all’utente in un’applicazione come Word, Outlook o PowerPoint.
  • Le autorizzazioni M365 dell’utente vengono utilizzate come base per la raccolta da parte di Microsoft del contesto aziendale dell’utente.
  • All’LLM (proprio come il GPT4) viene chiesto di rispondere.
  • Dopo l’elaborazione, Microsoft esegue dei test di intelligenza artificiale responsabili.
  • Microsoft crea una risposta e delle direttive che vengono inviate all’app M365.

Se desideri una guida completa sul Margin Trading e l’importanza della comprensione profonda di leva finanziare ed esposizione sui mercati, non perdere il nostro approfondimento:
Cos’è il Margin Trading e come funziona nei mercati delle criptovalute

intelligenza artificiale ai
Adobe Stock

Qual è il modello di sicurezza utilizzato da Microsoft 365 Copilot

Produttività e sicurezza sono due temi perennemente in contrasto nell’ecosistema Microsoft.

Questo si è manifestato in tutta la sua evidenza durante il coronavirus, quando i team IT hanno installato rapidamente Microsoft Teams senza prima conoscere completamente il funzionamento del modello di sicurezza sottostante o l’adeguatezza delle autorizzazioni, dei gruppi e delle regole di collegamento di M365 della loro organizzazione. Si trattava di un problema perché i team IT stavano distribuendo Microsoft Teams senza prima comprendere appieno il funzionamento del modello di sicurezza sottostante.

I punti a favore del sistema sono:

  • Isolamento del tenant.
    I dati della tenancy M365 dell’utente sono l’unica fonte di informazioni utilizzata da Copilot. Lo strumento di intelligenza artificiale non rivelerà i dati provenienti da altri tenant in cui l’utente potrebbe essere ospite o da tenant che potrebbero essere configurati per la sincronizzazione tra tenant.
  • Definizione di limiti e formazione
    Le informazioni della vostra azienda non vengono utilizzate in alcun modo da Copilot nel processo di formazione dei principali LLM utilizzati da Copilot per tutti gli inquilini.Non dovreste preoccuparvi dell’apparizione dei vostri dati riservati nelle risposte alle domande poste dagli utenti dei diversi affitti.

Gli svantaggi evidenti e i rischi sono:

  • Ottenere l’autorizzazione.
    Quando si utilizza Copilot, i singoli utenti possono vedere tutti i dati organizzativi per i quali hanno almeno un accesso di visualizzazione.
  • Le etichette
    Le etichette MPIP applicate ai file da cui Copilot ha tratto la risposta non saranno ereditate dal materiale creato da Copilot.
  • Noi esseri umani
    L’accuratezza e la sicurezza delle risposte fornite da Copilot non possono essere garantite; gli esseri umani devono assumersi la responsabilità di valutare le informazioni create dall’IA.
  • Diritti di accesso
    Se le aziende fossero in grado di applicare semplicemente il minimo privilegio in Microsoft 365, sarebbe un concetto fantastico concedere a Copilot l’accesso solo a ciò a cui una persona è in grado di accedere. Questa sarebbe un’idea meravigliosa.

Secondo la documentazione del programma di sicurezza dei dati Copilot di Microsoft:

È assolutamente necessario sfruttare i modelli di autorizzazione forniti dai servizi Microsoft 365, come SharePoint, per garantire che le persone o i gruppi appropriati all’interno dell’azienda abbiano il livello di accesso appropriato al materiale appropriato.

Tuttavia, in base alla nostra esperienza, siamo consapevoli che la stragrande maggioranza delle organizzazioni è ben lontana dall’avere il minimo privilegio possibile. Basta guardare alcune delle statistiche compilate nella ricerca condotta da Microsoft sullo stato dei rischi legati alle autorizzazioni nel cloud. Perché si verifica una cosa del genere? Le autorizzazioni di Microsoft 365 sono piuttosto difficili da capire.

Basti pensare a tutti i numerosi percorsi che un utente può utilizzare per accedere ai dati:

  • Accesso diretto alle autorizzazioni per gli utenti
  • Autorizzazioni per i gruppi in Microsoft 365.
  • Diritti locali per SharePoint (con personalizzazione a livello granulare).Accesso per i visitatoriAccesso dall’esterno
  • Accesso al pubblico
  • Accesso al collegamento (tutti, tutta l’organizzazione, direttamente e gli ospiti)
  • Per rendere le cose ancora più difficili, la maggior parte del controllo sulle autorizzazioni è delegata agli utenti finali, piuttosto che ai team IT o di sicurezza.

Tag e nomi

Microsoft attribuisce una notevole importanza alle etichette di sensibilità per aderire rigorosamente agli standard DLP, implementare la crittografia ed evitare in generale le violazioni dei dati. Nell’uso reale, tuttavia, può essere difficile far funzionare correttamente le etichette, soprattutto se ci si affida a esseri reali per assegnare le etichette di sensibilità.

Microsoft presenta l’etichettatura e il blocco come la migliore protezione possibile per i dati, ma si tratta di una visione eccessivamente ottimistica. La verità dipinge un quadro più cupo della situazione. Poiché un numero sempre maggiore di dati viene creato dalle persone, l’etichettatura di tali dati spesso rimane indietro o diventa obsoleta.

Il blocco o la crittografia dei dati possono aggiungere complessità alle operazioni e le soluzioni di etichettatura possono essere applicate solo a particolari tipi di file. Più tag ha un’organizzazione, più è probabile che i consumatori la trovino confusa. Questo è particolarmente impegnativo per le aziende con una base di dipendenti più ampia.

Quando l’intelligenza artificiale genererà ordini di grandezza di dati superiori a quelli attuali, la sicurezza dei dati basata sulle etichette diventerà senza dubbio meno efficace, poiché richiederà etichette precise e costantemente aggiornate.

L’intelligenza artificiale ha il potenziale per rendere gli esseri umani più pigri. I contenuti prodotti da LLM come GPT4 non sono semplicemente buoni, ma eccellenti. In molti casi, sia la velocità che la qualità sono di gran lunga superiori a quelle di un essere umano. Come diretta conseguenza di ciò, gli individui iniziano a riporre la loro completa fiducia nell’IA per produrre risultati affidabili e corretti.

Abbiamo già assistito a casi reali in cui Copilot prepara una proposta per un cliente e contiene dati sensibili appartenenti a un cliente completamente diverso da quello per cui la proposta è stata elaborata.

L’utente da un’occhiata veloce al messaggio di avviso prima di premere il pulsante “invia”, e a questo punto ci si trova di fronte alla possibilità di una violazione della privacy o di dati sensibili.

L’ambiente Copilot per M365 è pronto per l’uso

Assicurarsi che la sicurezza del vostro sistema sia in ordine per Copilot
Prima di iniziare l’implementazione di Copilot, è essenziale avere una solida conoscenza della propria posizione di sicurezza dei dati. Poiché si prevede che Copilot sarà ampiamente disponibile nei primi mesi del prossimo anno, questa è un’ottima occasione per mettere in atto i controlli di sicurezza adeguati per prevenire in tempo qualsiasi minaccia.

 

*NB: Le riflessioni e le analisi condivise sono da intendere ad esclusivo scopo divulgativo. Quanto esposto non vuole quindi essere un consiglio finanziario o di investimento e non va interpretato come tale. Ricorda sempre che le scelte riguardo i propri capitali di rischio devono essere frutto di ricerche e analisi personali. L’invito è pertanto quello di fare sempre le proprie ricerche in autonomia.

Impostazioni privacy