Innovazione e tecnologia

«Nuove opportunità sia per chi attacca che per chi si difende»

Gli hacker sfruttano l’intelligenza artificiale per colpirci. Noi la usiamo per impedirglielo. Una situazione contorta. È tempo di fare un po’ di chiarezza insieme a Marcel Zumbühl, il nostro Chief Information Security Officer.

Mischa Stünzi

Sezione Rich Content

Creato con Copilot (IA)
Creato con Copilot (IA)

Pericolosa o utile? Come potremmo definire l’intelligenza artificiale per la sicurezza IT?

Come accade per ogni nuovo sviluppo, il campo d’azione si allarga, offrendo nuove possibilità sia agli aggressori sia ai difensori. In generale, però, io sono ottimista. Approcciarsi per tempo alle nuove tecnologie significa riuscire a sfruttarne al meglio le opportunità. Noi della Posta ci occupiamo di intelligenza artificiale ormai da anni. Trovo interessante che, dai tempi in cui studiavo a oggi, la tecnologia non si sia evoluta particolarmente.

Il cambiamento principale quindi è solo che l’IA è diventata più accessibile grazie a tool come ChatGPT e Copilot?

Esatto. Ora si può comunicare con l’IA in maniera del tutto naturale mentre prima bisognava tradurre tutto in un linguaggio di programmazione per farsi capire dal computer. Oggi è il computer a fare questa traduzione per l’utente ed è da qui che nasce l’hype del momento. Mi è capitato raramente di vedere una tecnologia affermarsi in maniera così rapida e diffusa. Sembra che d’un tratto tutti avessero la sensazione di dover provare a usare l’intelligenza artificiale, come se fosse una questione di vita o di morte. Ache se all’inizio nessuno sapeva veramente come usarla.

Ci sono stati episodi, presso altre aziende, di collaboratrici o collaboratori che hanno inserito una serie di dati interni in una IA rendendoli così quasi pubblici. Ciononostante, la Posta adotta un approccio liberale.

La fase di sperimentazione ha dato ottimi frutti, quindi ora conviviamo con i relativi rischi. È stata una scelta consapevole. Inoltre, preferiamo che le persone usino i tool a disposizione sull’infrastruttura aziendale, dove possiamo fornire supporto in caso di emergenza, piuttosto che sui loro dispositivi privati.

Come impedite che il personale condivida accidentalmente dati interni con questi sistemi?

Innanzitutto, il personale deve capire che tutti i dati che inserisce in una IA possono poi anche essere di nuovo prelevati dal sistema. Deve inoltre sapere quali sono i dati confidenziali. Secondo Microsoft, rispetto ad altre aziende noi abbiamo molti dati classificati come C1 pubblico, C1 interno, C3 limitato e C4 confidenziale. È anche un vantaggio se si lavora con applicazioni Microsoft come Copilot.

Sicuramente però ci sono anche altri rischi legati all’IA, giusto?

Certo. I sistemi di IA stessi possono essere un obiettivo per gli attacchi. Ad esempio, gli aggressori potrebbero immettere deliberatamente dati sbagliati in un’intelligenza artificiale affinché il sistema fornisca risposte errate. Come facciamo ad accorgerci se una IA inizia a presentare delle anomalie? Come ci difendiamo da questi attacchi? Un anno fa abbiamo iniziato a sponsorizzare un dottorato presso l’Università della Svizzera italiana / IDSIA sul tema «Robustness of AI», quindi come rendere l’IA più resistente, proprio prima che esplodesse il dibattito sull’intelligenza artificiale generativa.

Esplodere è il verbo giusto: l’anno scorso i provider di posta elettronica tedeschi hanno registrato un aumento del 40% dei messaggi di spam. Dobbiamo prepararci anche noi a un’esplosione degli attacchi di spam e phishing?

In generale il phishing è un problema grosso, perché è uno degli accessi principali per infiltrarsi in un’azienda. Assisteremo a messaggi strutturati sempre meglio e all’avvento di nuove forme di phishing. L’anno scorso due colleghe attente si sono accorte di un tentativo di phishing tramite Teams, ce l’hanno segnalato e noi siamo riusciti a fermarlo. Spesso sono dei segnali deboli, delle incongruenze, che dovrebbero insospettire. L’IA è perfetta per individuare questi indizi.

Quindi l’IA ci può aiutare a proteggerci meglio?

Il potenziale dell’intelligenza artificiale per la sicurezza è enorme. La usiamo già oggi per individuare dei modelli di attacco e per generare password intelligenti che non seguano dei pattern. Inoltre, vorremmo allenare un’intelligenza artificiale con tutta la nostra competenza in materia di sicurezza così che possa poi darci delle risposte a domande di sicurezza. Tra qualche anno, tuttavia, l’utilizzo dell’IA sarà ancora più avanzato. L’intelligenza artificiale fungerà come una sorta di «agente» da impiegare per difenderci dagli attacchi. Oppure potremmo usarla per simulare degli ambienti in grado di fuorviare gli aggressori, che penserebbero di essersi infiltrati nei sistemi della Posta, quando in realtà si troverebbero solo nel labirinto di una simulazione.

Di recente sono finiti in prima pagina dei casi di videochiamate false, cosiddette deep fake, in cui qualcuno finge di essere la o il responsabile della vittima e chiede di effettuare un bonifico urgente.

Attualmente si tratta di episodi rari ma eclatanti. Suppongo che tra 12 o 18 mesi ne vedremo molti di più. Per fortuna possiamo prepararci e spiegare al personale come riconoscere le falsificazioni. Un modo sarebbe, ad esempio, prestare attenzione alla gestualità dell’interlocutore. I deep fake, infatti, non sono ancora in grado di muovere le mani davanti al viso. Stiamo valutando vari modi per sensibilizzare le persone, uno dei quali sarebbe mostrare loro dei video e poi chiedere di identificare quelli reali e quelli fake. Anche in questo caso vale la regola di notificare qualsiasi sospetto all’helpdesk. Meglio fare una segnalazione in più che cascare nella trappola!

A proposito di falso e reale: quando potrò intervistare un avatar di Marcel al posto del Marcel in carne e ossa?

Teoricamente potresti farlo già oggi, però penso che l’uso degli avatar si diffonderà tra circa un anno e mezzo. Sarà uno sviluppo relativamente veloce. Il rapporto con gli avatar fa emergere domande completamente nuove: come ci comportiamo se ci arriva un ordine dall’avatar di un cliente? Oppure semplicemente se una stampante ordina automaticamente una cartuccia e la fa spedire con noi? All’improvviso avremmo delle macchine come clienti. Come ci comportiamo? Quali sono le implicazioni giuridiche? E sul piano del marketing? Sono domande che non riguardo solo la Posta ma la società intera.

Marcel Zumbühl

Marcel Zumbühl è Chief Information Security Officer presso la Posta e responsabile per la sicurezza cibernetica e per le infrastrutture critiche della terza azienda più grande della Svizzera. Ha conseguito un master in informatica con una specializzazione in economia aziendale ed ha un certificato per presidenti di consigli di amministrazione. Prima di arrivare alla Posta, ha lavorato in Svizzera e all’estero per Accenture, Swisscom e Credit Suisse. È docente presso le SPF di Zurigo, la SDA Bocconi di Milano e la HSLU. Dal 2020, Marcel è co-presidente della Information Security Society Switzerland (ISSS).

scritto da

Mischa Stünzi

«Ogni mese respingiamo un centinaio di ciberattacchi»

Innovazione e tecnologia
Maggiori informazioni
Portrait Marcel Zumbühl

«Alexa, chiedi alla Posta quando arriva il mio invio?»

Innovazione e tecnologia
Maggiori informazioni

6 aspetti per cui non si deve temere la digitalizzazione

Innovazione e tecnologia
Maggiori informazioni
Immagine simbolica dell’etica dei dati