Innovation et technologie

«De nouvelles possibilités en attaque et en défense»

Pour nous attaquer, les hackers ont recours à l’intelligence artificielle, que nous utilisons à notre tour pour nous protéger. La situation étant complexe, nous avons demandé à Marcel Zumbühl, notre Chief Information Security Officer, de la clarifier.

Mischa Stünzi

Section Contenu riche

Créé avec Copilot (IA)
Créé avec Copilot (IA)

Que représente l’intelligence artificielle pour la sécurité informatique: un danger ou une aide?

Chaque nouvelle évolution technologique vient étendre la surface de jeu, en offrant de nouvelles possibilités en attaque et en défense. Globalement, je suis tout de même optimiste, car c’est en nous intéressant le plus tôt possible aux nouvelles technologies que nous saurons en tirer le meilleur parti. Or, à la Poste, nous nous sommes penchés sur l’IA depuis des années déjà. Il est intéressant de noter que, depuis l’époque où je faisais mes études, la technologie n’a pas énormément évolué en soi.

Le vrai changement tient-il donc seulement au fait que, grâce à des outils comme ChatGPT et Copilot, l’IA est devenue plus accessible?

Absolument! Maintenant, on peut communiquer très naturellement avec l’IA, alors qu’avant, il fallait tout traduire dans un langage de programmation pour pouvoir être compris par l’ordinateur. Désormais, c’est ce dernier qui se charge de la traduction, d’où l’extrême engouement actuel pour l’IA. Jamais encore je n’avais vu une technologie être adoptée si rapidement et à une telle échelle. Tout le monde a soudain eu le sentiment qu’il fallait absolument tester l’IA, comme si la vie en dépendait. Néanmoins, au départ, personne ou presque ne savait comment s’en servir intelligemment.

Dans certaines entreprises, des membres du personnel ont même alimenté une IA en données internes et l’ont rendue quasiment publique ainsi. La Poste a quand même adopté une approche libérale en la matière.

La phase d’expérimentation donne beaucoup de bons résultats, raison pour laquelle nous avons délibérément décidé de vivre avec les risques qui lui sont associés Par ailleurs, nous préférons que le personnel utilise les outils disponibles dans le cadre de l’infrastructure professionnelle, où nous pouvons intervenir en cas d’urgence, que sur ses appareils privés.

Comment faites-vous pour prévenir l’introduction involontaire de données internes dans ces systèmes?

Tout d’abord, il faut que le personnel ait conscience que toutes les données saisies dans un système d’IA peuvent ensuite en être extraites, et qu’il sache bien ce que sont les données confidentielles. Selon Microsoft, nous avons classifié un très grand nombre de données dans les catégories C1 (public), C2 (interne), C3 (restreint) et C4 (confidentiel) par rapport à d’autres entreprises. En outre, il est également conseillé de travailler avec des applications Microsoft telles que Copilot.

Néanmoins, il existe sûrement d’autres risques qui sont lié à l’IA?

Oui, c’est évident. Par exemple, les systèmes d’IA peuvent être eux-mêmes la cible d’attaques, consistant notamment à les alimenter sciemment en données fausses, pour que les réponses fournies soient à leur tour erronées. Comment déceler qu’une IA s’écarte graduellement du bon chemin? Comment se défendre contre de telles attaques? Il y a un an, nous avons commencé à sponsoriser un doctorat sur le thème de la robustesse de l’IA à la Università della Svizzera italiana/IDSIA. Cette initiative a été prise juste avant l’explosion des débats sur l’intelligence artificielle générative.

Il n’est pas exagéré de parler d’explosion car, l’an dernier, les opérateurs de messagerie électronique allemands ont constaté une augmentation de 40% des spams. Devons-nous donc nous attendre à une explosion des spams et du hameçonnage?

D’une manière générale, le phishing pose des gros problèmes, car c’est l’une des principales portes d’entrée pour pénétrer dans une entreprise. Nous ne manquerons pas d’observer un net perfectionnement des messages et l’arrivée de nouvelles formes de hameçonnage. L’an dernier, deux collègues vigilantes ont décelé une tentative de phishing via Teams. Elles nous l’ont signalée et nous avons pu la bloquer. Bien souvent, ce sont des signaux faibles, des incohérences, qui sont de nature à éveiller des soupçons. L’IA est prédestinée à reconnaître de tels signes.

Peut-on dès lors compter sur elle pour renforcer notre sécurité?

Il est certain que l’IA recèle une formidable potentiel en matière de sécurité. Nous l’utilisons déjà pour identifier des modèles d’attaque et pour trouver des mots de passe intelligents, qui n’intègrent pas de modèle. Par ailleurs, en nous appuyant sur nos compétences globales en matière de sécurité, nous voulons alimenter une intelligence artificielle qui pourra ensuite répondre à nos questions relatives à la sécurité. Dans quelques années, l’IA aura des usages encore bien plus étendus. Nous pourrons nous en servir comme d’un agent qui nous permettra de déjouer des attaques, ou l’utiliser pour simuler des environnements dans lesquels les fraudeurs se perdent, en pensant avoir pénétré les systèmes de la Poste alors qu’ils se trouvent uniquement dans le labyrinthe d’une simulation.

Récemment, on a beaucoup entendu parler de faux appels vidéo, ces «deepfakes» qui consistent à faire croire qu’un ou une responsable est au bout du fil et exige un transfert d’argent de toute urgence.

Aujourd’hui, ces épisodes sont relativement rares, mais spectaculaires. Je suppose néanmoins que, dans les 12 à 18 mois à venir, de tels cas vont se multiplier. Heureusement, nous pouvons nous y préparer et expliquer aux membres du personnel comment les déceler, par exemple en prêtant attention aux mouvements de mains de leurs interlocuteurs. Un deepfake n’est pas encore capable de bouger les mains devant le visage. Nous sommes en train de réfléchir à la façon de former le personnel, notamment avec des vidéos, pour qu’il soit capable de reconnaître le vrai et le faux, sachant qu’ici aussi, il s’agit de rester sur ses gardes et de signaler tout soupçon d’attaque au helpdesk, quitte à se tromper.

Puisqu’il est question du vrai et du faux: quand sera-t-il possible de conduire un tel entretien, non plus avec Marcel, mais avec son avatar?

En théorie, cela pourrait déjà être le cas aujourd’hui. Néanmoins, je pense que l’usage des avatars se répandra d’ici un an à un an et demi, c’est-à-dire relativement vite. Se poseront alors à nous de toutes nouvelles questions. Il suffit d’imaginer un avatar de client nous confiant un mandat, ou encore une imprimante commandant automatiquement une nouvelle cartouche et faisant appel à nos services pour l’expédier: nous aurons tout d’un coup des machines pour clients. Comment gérerons-nous cette situation? Quelles en seront les incidences sur le plan juridique? Et pour notre marketing? Ce sont là des questions qui ne concernent pas seulement la Poste, mais la société dans son ensemble.

Marcel Zumbühl

Marcel Zumbühl est Chief Information Security Officer à la Poste, et donc responsable de la cybersécurité de la troisième plus grande entreprise de Suisse et de son infrastructure critique. Titulaire d’un master en informatique, avec l’économie d’entreprise en matière secondaire, il est également président de Conseil d’administration certifié. Avant d’intégrer la Poste, il a travaillé en Suisse et à l’étranger pour Accenture, Swisscom et Crédit Suisse. Il est chargé de cours à l’EPF de Zurich, à la SDA Boconi de Milan et à la Haute école de Lucerne (HSLU). Depuis 2020, il est coprésident de l’association Information Security Society Switzerland (ISSS).

rédigé par

Mischa Stünzi

«Nous déjouons une centaine de cyberattaques par mois»

Innovation et technologie
En savoir plus
Portrait Marcel Zumbühl

«Alexa, demande à la Poste où en est mon colis?»

Innovation et technologie
En savoir plus

6 principes expliquant pourquoi la numérisation ne doit pas vous effrayer

Innovation et technologie
En savoir plus
Image symbolique Ethique des données