Innovation & Technologie

«Angreifer und Verteidiger erhalten neue Möglichkeiten»

Hacker nutzen künstliche Intelligenz, um uns anzugreifen. Wir nutzen künstliche Intelligenz, um sie abzuwehren. Eine verworrene Situation. Zeit für ein klärendes Gespräch mit Marcel Zumbühl, unserem Chief Information Security Officer.

Mischa Stünzi

Inhaltsbereich

Erstellt mit Copilot (KI)
Erstellt mit Copilot (KI)

Gefährlich oder hilfreich: Was ist künstliche Intelligenz für die IT-Security?

Wie bei jeder neuen Entwicklung erweitert sich das Spielfeld. Angreifer und Verteidiger erhalten neue Möglichkeiten. Insgesamt bin ich jedoch optimistisch, denn je früher wir uns mit neuen Technologien auseinandersetzen, desto besser können wir deren Chancen nutzen. Und bei der Post beschäftigen wir uns schon seit Jahren mit KI. Interessant ist, dass sich die Technologie seit meinem Studium gar nicht gewaltig weiterentwickelt hat.

Der grosse Wandel ist also nur, dass KI dank Tools wie ChatGPT und Copilot benutzerfreundlicher geworden ist?

Genau. Neu kannst du mit der KI ganz natürlich kommunizieren. Früher musstest du alles in eine Programmiersprache übersetzen, damit der Computer dich verstehen konnte. Heute macht der Computer diese Übersetzung für dich. Das hat zu dem Hype geführt, den wir aktuell beobachten. Ich habe noch selten erlebt, dass eine Technologie so rasch und so breit aufgenommen wurde. Alle hatten auf einmal das Gefühl, sie müssten KI ausprobieren, als hänge ihr Leben davon ab. Dabei wusste anfangs kaum jemand, wie man schlau damit umgeht.

Es gibt Fälle bei anderen Unternehmen, da haben Angestellte eine KI mit internen Daten gefüttert und diese damit quasi öffentlich gemacht. Trotzdem hat die Post eine liberale Haltung.

In der Experimentierphase entsteht viel Gutes. Deshalb leben wir mit den damit verbundenen Risiken. Das war ein bewusster Entscheid. Zudem ist uns lieber, die Leute nutzen die zur Verfügung stehenden Tools auf der geschäftlichen Infrastruktur, wo wir im Notfall unterstützen können, als auf ihren privaten Geräten.

Wie verhindert ihr, dass Mitarbeitende aus Unwissenheit interne Daten in solche Systeme eingeben?

Zunächst müssen die Mitarbeitenden verstehen, dass alle Daten, die sie bei einer KI eingeben, wieder aus dem System herausgenommen werden können Ausserdem müssen sie wissen, was vertrauliche Daten sind. Im Vergleich zu anderen Unternehmen haben wir laut Microsoft sehr viele Daten klassifiziert nach C1 öffentlich, C2 intern, C3 eingeschränkt und C4 vertraulich. Von Vorteil ist auch, wenn die Leute mit Microsoft-Anwendungen wie Copilot arbeiten.

Aber es gibt doch sicher auch weitere Risiken, die mit KI verbunden sind?

Klar. KI-Systeme können beispielsweise selbst ein Ziel für Angriffe sein. Angreifer könnten etwa eine künstliche Intelligenz gezielt mit falschen Daten füttern, damit das System falsche Antworten liefert. Wie merken wir, wenn eine KI schrittweise vom Pfad abkommt? Wie wehren wir solche Attacken ab? Vor einem Jahr haben wir begonnen ein Doktorat zu sponsern an der Università della Svizzera italiana/IDSIA zum Thema Robustness of AI – also wie macht man KI robust. Gerade rechtzeitig vor der explodierenden Debatte rund um generative künstliche Intelligenz.

Explodiert ist das richtige Stichwort: Deutsche E-Mail-Anbieter haben letztes Jahr eine Zunahme der Spam-Nachrichten um 40 Prozent festgestellt. Müssen wir uns auf eine Explosion der Spam- und Phishing-Attacken gefasst machen?

Phishing ist generell ein grosses Problem. Es ist eine der grössten Einfallspforten in Unternehmen. Wir werden erleben, dass die Nachrichten viel besser werden und neue Formen von Phishing dazukommen. Letztes Jahr haben zwei aufmerksame Kolleginnen einen Phishing-Versuch via Teams bemerkt. Sie haben ihn uns gemeldet und wir konnten ihn abwehren. Oft sind es schwache Signale, Unstimmigkeiten, die Verdacht auslösen sollten. KI ist prädestiniert, solche Anzeichen zu erkennen.

So kann uns KI helfen, sicherer zu werden?

Das Potenzial von KI für die Sicherheit ist riesig. Wir nutzen KI schon heute, um Angriffsmuster zu erkennen und intelligente Passworte zu finden, die keine Muster enthalten. Zudem möchten wir mit unserer ganzen Sicherheits-Kompetenz eine künstliche Intelligenz füttern, die uns dann Sicherheitsfragen beantworten kann. In ein paar Jahren wird der KI-Einsatz aber noch viel weiter gehen. Wir werden künstliche Intelligenz als Agenten einsetzen, die wir in für die Abwehr von Angriffen einsetzen können. Oder wir können mit künstlicher Intelligenz Umgebungen simulieren, in denen sich Angreifer verlieren. Die meinen, sie seien bei der Post eingedrungen, befinden sich in Wahrheit aber nur im Labyrinth einer Simulation.

Für Schlagzeilen sorgten zuletzt gefälschte Videoanrufe, sogenannte Deep Fakes, in denen vorgegaukelt wird, der Chef oder die Chefin sei am Draht und verlange eine dringende Geldüberweisung.

Heute sind das seltene, aber spektakuläre Fälle. Ich gehe davon aus, dass wir in 12 bis 18 Monaten vermehrt solches Deep-Fake-Phishing sehen werden. Zum Glück können wir uns darauf vorbereiten und den Mitarbeitenden erklären, wie sie Fälschungen erkennen. Zum Beispiel wenn wir auf Handbewegungen unserer Gesprächspartner achten. Hände vor dem Gesicht bewegen, das können Deepfakes heute noch nicht. Wir testen gerade, wie wir die Leute sensibilisieren können, zum Beispiel mit Videos, bei denen sie erkennen sollen, welche echt und welche fake sind. Und auch hier gilt, nicht reinfallen und Angriffsverdacht via Helpdesk melden, lieber einmal zu viel.

Apropos echt oder nicht: Wann werde ich dieses Gespräch nicht mehr mit Marcel, sondern mit einem Marcel-Avatar führen können?

Theoretisch könntest du das vermutlich schon heute. Aber ich denke, verbreitet im Einsatz stehen Avatare in einem bis eineinhalb Jahren. Das wird relativ rasch gehen. Beim Umgang mit Avataren stellen sich ganz neue Fragen: Was, wenn uns ein Kunden-Avatar Aufträge erteilt? Oder schon nur ein Drucker automatisch eine neue Druckerpatrone bestellt und über uns verschicken lässt? Dann haben wir plötzlich Maschinen als Kunden. Wie gehen wir mit dem um? Was bedeutet das rechtlich? Und für unser Marketing? Das sind Fragen, die nicht nur die Post, sondern die ganze Gesellschaft betreffen.

Marcel Zumbühl

Marcel Zumbühl ist Chief Information Security Officer der Schweizerischen Post und verantwortlich für die Cybersicherheit des drittgrössten Unternehmens der Schweiz und der kritischen Infrastruktur. Er hat einen Master-Abschluss in Informatik mit einem Nebenfach in Betriebswirtschaft und ist zertifizierter Verwaltungsratspräsident. Vor der Post war er im In- und Ausland für Accenture, Swisscom und Credit Suisse tätig. Er ist Dozent an der ETH Zürich, der SDA Bocconi Mailand und der HSLU. Seit 2020 ist Marcel Co-Präsident der Information Security Society Switzerland (ISSS).

verfasst von

Mischa Stünzi

«Monatlich wehren wir rund 100 Cyberangriffe ab»

Innovation & Technologie
Mehr erfahren
Portrait Marcel Zumbühl

«Alexa, frage Schweizerische Post, wann kommt meine Sendung?»

Innovation & Technologie
Mehr erfahren

6 Aspekte, warum Sie keine Angst vor der Digitalisierung haben müssen

Innovation & Technologie
Mehr erfahren
Symbolbild Datenethik