Quello “spazio grigio” tra dispositivi per la sicurezza e il comportamento umano

I team di sicurezza monitorano attentamente le potenziali attività di minaccia, ma gli incidenti non sono sempre in bianco e nero.

È altrettanto stancante per i team di sicurezza continuare a dire “No”, così come lo è per ogni altro dipartimento continuare a sentirlo. Per preservare un certo livello di operazioni senza intoppi in un’organizzazione, i team della sicurezza devono trovare un modo per consentire ai dipendenti di spostare i dati, proteggendo allo stesso tempo le risorse digitali come per esempio i dati dei clienti.

Immagina che un collega inizi a caricare file sensibili sul cloud: sta progettando di condividerli con un concorrente oppure con un’agenzia che sviluppa la messaggistica per una prossima versione. Cosa succederebbe se un dirigente stesse accedendo alle informazioni del personale dal sistema delle risorse umane mentre viaggia all’estero – o se stesse gestendo attività critiche dalla strada o che qualcun altro avesse accesso al suo laptop?

Il problema è che molti comportamenti rischiosi vivono in uno “spazio grigio” che potrebbe essere, innocua o addirittura non intenzionale. Il blocco di tutte queste attività “grigie” costringerà i dipendenti a implementare soluzioni alternative. La chiave è usare indizi contestuali e modelli di comportamento per mostrare se un’attività è malevola o innocua e se l’utente che la conduce è davvero dietro di loro.

Sapendo ciò che non sai

L’industria della cybersecurity non può evitare di affrontare l’ambiguità delle azioni della macchina. Non esiste un muro che possa essere costruito per proteggere i dati, gli sforzi per contrastare l’ingegneria sociale spesso falliscono e le superfici di attacco continuano a crescere. Poiché i sistemi di informazione diventano sempre più complessi, chiediamo che la nostra tecnologia “abbia senso” di una grande quantità di input ambientali vaghi, molti dei quali sono associati al comportamento umano.

Stiamo chiedendo ai sistemi di bilanciare perfettamente le informazioni, generate da innumerevoli sensori con vari gradi di sensibilità, e di assegnare automaticamente la priorità o ragionare attraverso questi input. Ma gli strumenti incentrati sulle macchine sono difficili da gestire con l’ambiguità: gli algoritmi non sono sempre in grado di analizzare tutte le variabili salienti e prendere una decisione adeguata se consentire o bloccare tali azioni rischiose.

Gli esseri umani, d’altro canto, sono più bravi nel bilanciare più variabili e il contesto per prendere decisioni – specialmente quando si tratta di imprevisti – ma non possono fare i conti con le massicce esigenze di sicurezza dei dati.

La strana coppia: uomo e macchina

Trovare il giusto equilibrio richiede che sfruttiamo il potere della tecnologia e allo stesso tempo sfruttiamo l’intuizione umana.

I computer sono in grado di gestire e riassumere grandi quantità di dati. La tecnologia può anche rilevare cose che gli esseri umani non possono, come il volume di file che una persona invia da un account di posta elettronica, i modelli di accesso ai file o il flusso di dati all’interno di una rete. Avvisare automaticamente gli analisti umani quando il comportamento di una persona o di una rete rientra nell’ambiguo “spazio grigio”, ma in genere questi sforzi si traducono in una quantità frustrante di falsi allarmi.

Il significato che diamo al mondo che ci circonda dipende fortemente dalla nostra capacità di percepire le cose e dalla nostra successiva capacità di dare un senso alle cose.

Questo è complicato vivendo in un mondo pieno di ambiguità.

Ci sono molti aspetti positivi per abbracciare l’ambiguità, indipendentemente dalle sfide. L’ambiguità ci consente di mettere in discussione le nostre nozioni preconcette ed esplorare nuove possibilità di comprensione del mondo. Possiamo chiederci perché qualcosa esiste o perché qualcosa accade e potrebbe non esserci una risposta giusta.

Gli esseri umani potrebbero non essere sempre a loro agio nell’abbracciare l’ambiguità, ma siamo più bravi a gestirli rispetto alle macchine, specialmente se presentati con qualcosa che non abbiamo mai sperimentato prima. Abbiamo capacità di integrazione sensoriale estremamente avanzate, che ci consentono di trasformare automaticamente e immediatamente le informazioni dai nostri cinque sensi in un ricco significato simbolico.

In un mondo pieno di minacce alla cybersecurity che si trasformano più rapidamente di quanto la nostra tecnologia possa tenere il passo, non è sufficiente costruire una tecnologia basata sulla comprensione del pericolo di ieri.

Non è sufficiente affidarsi a categorie obsolete di bianco o nero. Dobbiamo creare una tecnologia che sia in grado di adattarsi alle mutevoli condizioni e dare significato a un’ampia gamma di comportamenti e attività che rientrano in quello “spazio grigio”.

Possiamo iniziare col comprendere che gli umani, se formati, eccellono nell’identificare l’ambiguità e nel trattare con i costrutti astratti. Siamo in grado di elaborare strategie per esplorare o affrontare l’ambiguità senza supervisione e possiamo creare un approccio di ragionamento per affrontare qualsiasi cosa stia accadendo nell’ambiente in un dato momento.

Combinando la nostra capacità umana di adattarsi soprattutto alle mutevoli condizioni con la potenza e la portata della tecnologia, possiamo iniziare a scoprire la verità che si trova nello spazio grigio e iniziare a prepararci per le tremende minacce alla sicurezza informatica che verranno.

Leggi l’articolo originale: https://threatpost.com/embracing-the-cybersecurity-grey-space/138966/ by Margaret Cunningham

Ingegneria della Resilienza

Il mondo è cambiato. Negli ultimi decenni abbiamo visto crescere inesorabilmente la complessità con cui tutte le azioni del nostro quotidiano sono gestite.