Innovation & Technologie
«Wir sind keine Digitalethik-Polizei»
Wie bringe ich einer künstlichen Intelligenz (KI) ethisches Verhalten bei? Für Fragen rund um das Thema Digitalethik und KI ist bei der Schweizerischen Post Sophia Ding die Expertin. Ein Gespräch über Innovation, frauenfeindliche KI und Freiheit in Leitplanken.
Inhaltsbereich

Was ist Digitalethik und wieso beschäftigt sich die Post damit?
Wie können wir als Post die Chancen der Digitalisierung nutzen und gleichzeitig sicherstellen, dass dabei grundlegende Werte wie Autonomie, Transparenz und Fairness gewahrt werden? Digitalethik hilft uns bei diesen Fragestellungen – auch dort, wo es noch keine gesetzlichen Vorgaben gibt, z.B. im Umgang mit neuen Technologien. Mehr Infos unter Digitalethik bei der Post
Berichte über KIs, die sich rassistisch oder frauenfeindlich verhalten, sind für dich als Digitalethikerin wohl das Albtraumszenario?
Ja, das ist hochproblematisch und kann gravierende Auswirkungen auf das Leben von Menschen haben. Amazon hat beispielsweise eine KI für den Rekrutierungsprozess entwickelt. Sie wurde mit Daten aus der Vergangenheit trainiert – aus einer Zeit, als Frauen im Tech-Sektor noch viel seltener waren. Daher hat die KI Männer bevorzugt.
Wie können wir das bei der Schweizerischen Post verhindern?
Seitens Digitalethik bringen wir uns im Unternehmen proaktiv ein, um genau das zu vermeiden. Dafür brauchen wir die Unterstützung aller. Denn nur wenn alle frühzeitig an das Thema denken, lassen sich solche Fälle verhindern. Unter anderem wegen dieser Risiken übertrifft die Post im Umgang mit KI die gesetzlichen Vorgaben.
Lässt es sich überhaupt vermeiden? Schliesslich wird jede KI mit Daten der Vergangenheit trainiert.
Dass die KI aus bestehenden Mustern lernt, müssen wir berücksichtigen, wenn wir sie einsetzen – oder uns in bestimmten Fällen bewusst gegen den Einsatz von KI entscheiden. Technisch ist es theoretisch möglich, Diskriminierungen zu erkennen und auszugleichen. In der Praxis ist dies aber sehr kompliziert und kann nicht allein mit technischen Mitteln passieren. Wenn wir verstehen, weshalb eine KI diskriminierende Resultate liefert, können wir das sogar zu unserem Vorteil nutzen und die Diskriminierung bekämpfen. Diskriminierung ist aber, wie du eingangs gesagt hast, ein Worst-Case-Szenario. Bei vielen KI-Systemen, die auch bei der Post im Einsatz sind, haben wir diese Probleme nicht, weil sie keine Personendaten nutzen. Trotzdem sind auch diese Anwendungen für uns Digitalethikerinnen und -ethiker relevant, weil sie Auswirkungen auf die Kundinnen und Kunden, aber auch auf die Mitarbeitenden im Unternehmen haben.
Gibt es Aufgaben oder Bereiche, bei denen ihr generell vom Einsatz von KI abratet?
Wir sind keine Digitalethik-Polizei, die durch den Konzern rennt und allen auf die Finger schaut. Wir wollen Innovation ermöglichen und begleiten, Risiken frühzeitig erkennen und mithelfen, dass noch bessere Produkte und Dienstleistungen entstehen. Im Austausch mit verschiedenen Verantwortlichen haben wir festgelegt, dass wir nicht einzelnen Bereichen den Einsatz von KI komplett verbieten sollten. KI hat immer Chancen und Risiken. Für die Hochrisikobereiche möchten wir jedoch erreichen, dass der KI-Einsatz zwingend durch uns digitalethisch begleitet werden muss.
Hast du ein Beispiel, wie digitalethische Überlegungen eine KI-Anwendung der Post mitgeprägt haben?
Vor Kurzem wurde in der Fernsehsendung SRF EcoTarget not accessible über den Einsatz von KI bei der Verzollung bestimmter ausländischer Pakete berichtet. Die Anwendung hat die Post selbst entwickelt; sie teilt seit letztem Jahr diese Pakete in «zollpflichtig» und «abgabefrei» ein. Die Mitarbeitenden prüfen den Vorschlag und entscheiden dann definitiv.
Und welche Rolle spielt dabei die Digitalethik?
Ziel des KI-Einsatzes war es, das Risiko durch einen Fehlentscheid durch die Mitarbeitenden im Verzollungsprozess zu minimieren. Die Entwicklung geschah nach dem Prinzip «Ethics by Design». Dass die Vorschläge der KI nachvollziehbar sind, ist ein Merkmal von vertrauenswürdiger künstlicher Intelligenz und war hier sehr wichtig. Deshalb haben sich die Projektverantwortlichen dafür entschieden, die künstliche Intelligenz selbst zu entwickeln, und gegen die Lösung eines Lieferanten. Diese wäre eine Blackbox gewesen und dem Anspruch an Vertrauenswürdigkeit somit nicht gerecht geworden. Die Post-internen Entwicklerinnen und Entwickler haben z.B. technische Methoden verwendet, die eine möglichst gute Nachvollziehbarkeit erlauben. Zudem legten sie einen starken Fokus auf die Schulung der Mitarbeitenden und haben auch transparent die Grenzen der KI-Empfehlungen aufgezeigt. Ein weiterer wichtiger Faktor für die Vertrauenswürdigkeit war das Prinzip Human-in-the-Loop.
Was bedeutet das?
Das heisst, die KI macht lediglich Empfehlungen, basierend darauf entscheiden die Mitarbeitenden abschliessend. Digitalethische Überlegungen helfen also, dass KI-Systeme sowohl vertrauenswürdig entwickelt als auch verantwortungsvoll eingesetzt werden.
KI ist ein Werkzeug. Anders als ein Hammer ist sie jedoch eine Blackbox. Ich gebe der KI eine Anweisung und weiss nie genau, weshalb welches Ergebnis zustande kommt. Ist diese Unberechenbarkeit aus digitalethischer Sicht nicht heikel, weil wir als Menschen damit die Kontrolle teilweise aus der Hand geben?
KI ist ein Überbegriff, ein ganzes Spektrum an Modellen – von klar nachvollziehbar bis gar nicht mehr erklärbar. Ob das kritisch ist, hängt vor allem von der Aufgabe ab. Wenn etwa ein Spamfilter funktioniert, interessiert es uns möglicherweise weniger, weshalb. Wenn die Ergebnisse einer KI aber im schlimmsten Fall stark negative Auswirkungen haben, ist die Nachvollziehbarkeit durchaus relevant. Bei solchen Beispielen müssen wir überlegen, ob wir die KI lieber selbst entwickeln und so die Nachvollziehbarkeit beeinflussen können oder sie einkaufen. Das macht meine Arbeit so interessant: Die Antwort ist selten ein klares Ja oder Nein, sondern meist ein Abwägen.
Noch ist KI vor allem in der digitalen Welt zuhause. Schon bald könnte sie aber in selbstfahrenden Autos oder autonomen Robotern und damit in der physischen Welt zum Einsatz kommen. Was ändert sich dadurch für die Digitalethik?
Ich glaube, unser Vorgehen und die Fragen, die wir stellen, bleiben die gleichen: Wer könnte betroffen sein? Welche Werte sind potenziell tangiert? Wie schaffen wir es, dass Systeme vertrauenswürdig und zuverlässig sind? Vielleicht kommen neue Aspekte hinzu. Aber grundsätzlich sind wir gerüstet.
In der physischen Welt stellen sich neue ethische Fragen: Wie entscheiden Maschinen moralisch korrekt? Ein Beispiel: Zwei Personen überqueren eine Strasse und laufen vor ein selbstfahrendes Auto, das nicht mehr bremsen kann. Soll es die Personen überfahren oder ausweichen und eine unbeteiligte Person auf dem Trottoir verletzen?
2016 hat die US-Hochschule MIT das Projekt Moral Machine lanciert. Menschen beurteilen dort, wie ein selbstfahrendes Auto in verschiedenen Situationen reagieren soll. Das sind spannende ethische Fragen, die kulturell unterschiedlich bewertet werden. In Asien werden zum Beispiel ältere Menschen sehr wertgeschätzt, wohingegen man im Westen eher Kinder und Frauen schützt. Ohne zu wissen, was die Zukunft bringt, vermute ich, dass primär die Fahrzeughersteller diese Fragen werden beantworten müssen – und nicht die Post als Nutzerin.
Bisher haben wir über das ethische Verhalten der KI gesprochen. Aber wie sieht es mit unserem Verhalten gegenüber der KI aus? Müssen wir ihr gegenüber ethische Standards einhalten?
KI ist heute – und ich wage die Prognose: auch auf absehbare Zeit – keine wirkliche Intelligenz im Sinne von Bewusstsein. Sie basiert auf statistischen Methoden und Algorithmen, die zum Beispiel die Wahrscheinlichkeit berechnet, welches Wort in einem Satz als nächstes kommt. Das vermittelt den Eindruck von Intelligenz. Ich finde die Frage sehr spannend. Aber sie lenkt auch etwas von den Herausforderungen ab, die wir aktuell im Zusammenhang mit KI haben.