
Mit der Künstlichen Intelligenz (abgekürzt: KI oder vom Englischen AI «artificial intelligence») assoziieren einige von uns futuristische Superroboter, die eines Tages die Macht über die Welt erobern. Doch KI existiert schon längst in unserem Alltag und ist weniger spektakulär, als uns Filme teilweise suggerieren. Beispielsweise regelt sie in neuen Autos das Abstandhalten zu anderen Fahrzeugen; hilft in der Medizin in der Diagnostik und Medikamentenentwicklung; bestimmt aufgrund unseres Verhaltens, welche Seiten wir auf Facebook oder YouTube immer wieder zu Gesicht bekommen. Sie lernt menschliche Sprache inhaltlich verstehen, kann Texte thematisch erfassen und Schlüsse aus ihnen ziehen. Ihr Einsatzbereich ist riesig und wird jeden Tag grösser.
Doch was passiert, wenn die KI in den oben genannten Anwendungsbereichen Vorurteile von Menschen übernimmt und multipliziert? Der Computer reproduziert alte Muster, diskriminiert, verhält sich vielleicht gar rassistisch. Viele Techniken stehen erst auf dem Sprung von der Wissenschaft in die Anwendung. Fehler können vermieden werden, wenn sie rechtzeitig erkannt werden. Darüber sprechen wir mit Prof. Dr. Mascha Kurpicz-Briki (32), Dozentin und Forscherin an der Berner Fachhochschule. Sie beschäftigt sich in ihrer Forschung unter anderem mit dem Thema «Fairness und Digitalisierung von sozialen und gesellschaftlichen Herausforderungen».
Mascha Kurpicz-Briki, bevor wir zum brennenden Thema übergehen, ob wir uns auf Entscheidungen der KI verlassen können, würden Sie den UND-LeserInnen einige Begriffe erklären, die das Verstehen dieses schwierigen Themas erleichtern? Was sind ein Bot, ein Algorithmus und ein Bias?
Mascha Kurpicz Briki: Ein Bot ist ein Computerprogramm, welches sich wiederholende Aufgaben selbstständig lösen und bearbeiten kann. Ein Algorithmus ist eine möglichst genaue Beschreibung eines Ablaufes. Somit ist auch jedes Kochrezept ein Algorithmus. Er enthält eine Reihe von Anweisungen, die Schritt für Schritt ausgeführt werden, um eine Aufgabe oder ein Problem zu lösen. Ein Algorithmus muss mit Daten gefüttert werden. Diese Daten sind die Ausgangslage, nach welcher eine Reihe von definierten Schritten durch den Computer ausgeführt werden. Diese Schritte des Computers führen zu einem Resultat (wie zum Beispiel, dass das selbstfahrende Auto ausweicht, wenn ein Mensch auf der Strasse steht, Anmerkung der Redaktion). Wenn Unausgewogenheiten in Daten vorhanden sind, entsteht ein Bias. Im Kontext der digitalen Ethik meinen wir damit, dass eine Gruppe der Bevölkerung zu wenig oder anders in diesen Daten dargestellt wird. Ein Bias bedeutet in diesem Sinn eine Diskriminierung einer bestimmten Gruppe.

Was ist die Künstliche Intelligenz?
Es ist schwierig, Künstliche Intelligenz zu definieren, weil der Begriff in ganz unterschiedlichen Zusammenhängen verwendet wird. Manchmal auch etwas zweifelhaft, weil es modern geworden ist, von Künstlicher Intelligenz zu sprechen. Grundsätzlich ist es ein System, das, basierend auf Daten, selbstständig lernt und Entscheidungen trifft. Das heisst, wir haben nicht nur eine konkrete Anleitung zum Ausführen immer des Gleichen, wie beim einfachen Algorithmus, sondern wir haben ein System, das sich aufgrund von eingegebenen Daten selbst ein Bild von der Situation macht und basierend darauf neue Entscheidungen trifft.
Wie funktioniert maschinelles Lernen?
Maschinelles Lernen erzielt ein Wissen aus Erfahrung, ohne dass jeder Schritt von Menschen programmiert wird. Ein Computerprogramm wird mit vielen Beispielen gefüttert, erkennt ein Muster, leitet davon selbstständig Richtlinien ab und kann diese auf ganz neue Daten anwenden. Noch weiter geht Deep Learning. Es beruht auf neuronalen Netzwerken, deren Beschaffenheit im weitesten Sinne vom menschlichen Gehirn abgeleitet ist. Dabei erarbeiten vernetzte Software-Neuronen ein Problem immer wieder, verstärken die Verbindungen, die zur Lösung beitragen, trennen die ab, die weniger erfolgreich sind, und werden so immer besser.
Wo ist es sinnvoll, KI einzusetzen?
Der Einsatz von maschinellem Lernen kann in unterschiedlichen Bereichen sinnvoll sein, unter der Voraussetzung, dass genügend Daten zum Trainieren vorhanden sind. Computer sind gut darin, viele Daten schnell auszuwerten. Hingegen kennt der Computer keine Moral und keine Reflexion. Hier ist der Mensch dem Computer eindeutig überlegen. Ich persönlich vertrete die Meinung, dass die Tools mit KI als Entscheidungshilfe eingesetzt werden können. Es ist jedoch problematisch, wenn solche Systeme selbstständig Entscheidungen treffen. Die KI sollte mehr ein Tool sein, das die Menschen bei ihrer Arbeit unterstützt. So entsteht eine Arbeitsteilung zwischen dem Menschen und der KI.
Zum Beispiel wie beim autonomen Fahren, wenn entschieden werden muss, ob eine alte Frau oder ein Baby überfahren werden sollte?
Genau, das ist ein typisches Beispiel, das häufig diskutiert wird. Solange diese Frage nicht abschliessend gelöst ist, sollte der Computer dies nicht selbstständig entscheiden.
KIs und Algorithmen werden für ihre Neutralität gelobt. Sind sie wirklich neutral?
In letzter Zeit gab es viele Fälle, wo KI-Systeme nicht neutral waren. Das Problem bei solchen Systemen ist, dass sie nur so neutral sein können wie die Daten, auf denen sie trainiert wurden. Wenn in den Daten, die von Menschen erstellt und erschaffen wurden, schon Stereotypen und Vorurteile enthalten sind, dann lernt die KI dies ohne Reflexion. Sie wird lernen, was in den Daten vorkommt. Ein typisches Beispiel ist Wikipedia. Es konnte nachgewiesen werden, dass auf Wikipedia weniger Biografien von Frauen vorhanden sind, und dass die Art, wie Männer und Frauen dargestellt werden, unterschiedlich ist. Männer werden meistens aufgrund ihres Berufes beschrieben, was sie beruflich erreicht haben, und Frauen werden häufig aufgrund der romantischen und familiären Beziehungen beschrieben. Oftmals werden diese Wikipedia-Daten zum Trainieren für Systeme verwendet. Die KI geht davon aus, dass für Männer der Beruf wichtig ist, aber für Frauen weniger. Dann kann auch die Entscheidung dieser KI nicht neutral sein. Deswegen ist es wichtig, dass Daten, auf denen man trainiert, ausgewogen sind.
Wie lässt sich denn herausfinden, ob eine KI fair agiert?
Bestimmt zu sagen, dass ein Datensatz fair ist, ist sehr schwierig. Das liegt daran, dass es keine eindeutige Definition gibt, was fair bedeutet. In unserer Forschung gehen wir dieser Frage nach. Wir entwickeln neue Methoden, um ein Bias in Trainingsdaten konkret messbar zu machen. Zum Beispiel, wenn es um Frauen und Männer geht oder wie Namen unterschiedlicher Herkunft dargestellt werden. Man muss sich eines konkreten Falls annehmen und die Trainingsdaten darauf kontrollieren. Diese zeigen dann Diskriminierungen auf. Solche Methoden braucht es, um in Zukunft bessere und fairere KIs zu trainieren.
Sind die lückenhaften Trainingsdaten ein Thema in der Informatikausbildung? Ist das Bewusstsein darüber bei den ProgrammiererInnen weit verbreitet?
Zum Glück ist das heutzutage ein Thema. Noch vor zehn Jahren war es anders. An der Berner Fachhochschule unterrichten wir dieses Thema im Bachelor-Studiengang, wo die Studierenden auch die Möglichkeit haben, in der Vertiefung Data Engineering zu studieren. Sie spezialisieren sich auf Techniken mit KI, Umgang mit Daten usw. Das Bewusstsein der lückenhaften Trainingsdaten ist bei den ProgrammiererInnen nicht immer vorhanden. Deswegen ist es wichtig, dieses Thema in der Aus- und Weiterbildung zu behandeln.
Soll dieses Wissen auch in den Informatikunterricht in der Grundausbildung einfliessen?
Wir leben in einer sehr digitalisierten Welt. Es ist deshalb sinnvoll, wenn ein bestimmtes, grundlegendes Wissen auch schon in der Schule thematisiert wird, insbesondere der Umgang mit den Technologien, die um uns herum vorhanden sind.
Wie wird gegen die sich einschleichenden Diskriminierungen bei der KI vorgegangen?
Das Bewusstsein dafür ist das Allerwichtigste. Personen, die KI trainieren, sollen sich bewusst sein, dass es ein Bias geben könnte. Sie sollen Massnahmen ergreifen, um das zu überprüfen und allenfalls zu verhindern. Bei der Entwicklung einer KI müssen richtige Fragen gestellt werden. Man muss sich überlegen, was für Diskriminierungen in den Trainingsdaten vorkommen können und wie sich das auf die Entscheidungen der Software auswirken könnte. Das ist schwierig, weil es hierfür noch kein allgemeines Verfahren gibt, das konkrete technische Messbarkeit von Fairness in Trainingsdaten und in den KI-Systemen ermöglicht. Die Erarbeitung eines Fragenkatalogs mit bestimmten Fragen, die Messbarkeit von Fairness weiter unten in den Trainingsdaten erlaubt, ist Gegenstand intensiver Forschung. Es gibt viele verschiedene Arten von Diskriminierungen und unterschiedliche Arten von Daten: Wir können Bilder, Videos, Textdaten und anderes haben. Es ist auch nicht jede Art von Diskriminierung für alle Projekte relevant. Wenn ich zum Beispiel Schrauben sortiere, habe ich weniger Probleme mit der Diskriminierung, als wenn es darum geht, automatisiert Jobs zu vergeben.
Würde es helfen, wenn mehr Frauen oder Minderheiten in die Entwicklung von KI eingebunden würden?
Grundsätzlich weiss man, dass eine grössere Diversität in Teams, welche die Software «Künstliche Intelligenz» entwickeln, zu mehr Bewusstsein für die Fragestellungen führt. Daher wäre es wünschenswert, dass die Teams divers sind. Es ist aber nicht immer machbar, insbesondere in kleineren Firmen. Diversität hat zudem viele Facetten: Geschlecht, Alter, Herkunft. Deswegen sind das Bewusstsein und ein öffentlicher Diskurs über die Ethikfragen in KI-Systemen von grösster Bedeutung.

Gift für die Gleichberechtigung
Barbara Tschopp (69): Künstliche Intelligenz ist Gift für die Gleichberechtigung – dieser frustrierende Gedanke begleitete mich während der Recherche für unseren Artikel. Wenn Frauen und Minderheiten weniger sichtbar sind in der Menschheitsgeschichte, so kommen sie auch viel zu selten in den KI-Trainingsdaten vor. Demzufolge können die KI-Entscheidungen gar nicht neutral sein! Sie werden sogar den heutigen Zustand untermauern: Fortan wird die Welt von Lösungen beherrscht, die für weisse, gesunde, etwa 40-jährige Männer gelten; an Frauen und Minderheiten wird weiterhin noch zu wenig gedacht – folgerte ich betrübt. Doch die Erkenntnisse aus dem Gespräch mit Prof. Dr. Kurpicz-Briki lassen auf Besserung hoffen. Die InformatikerInnen haben das Problem der lückenhaften Trainingsdaten erkannt, suchen nach fairen Lösungen und tragen zur Meinungsbildung über die moralischen Fragen in der digitalen Gesellschaft bei. Schlussendlich werden grosse KI-Konzerne sich dem offenen Diskurs über digitale Ethik und faire Lösungen nicht entziehen können.

Hilfsmittel statt Entscheidungsträger
Tabea Arnold (26): KIs sind mächtige Technologien. Maschinen lernen immer besser, den Sinn von Sprache und Texten zu verstehen. Dadurch kopieren sie auch menschliche Schwächen und verinnerlichen Vorurteile. Zum Beispiel wollte ein Programm schwarze Häftlinge härter bestrafen. Grund dafür waren alte Trainingsdaten, die Vorurteile reproduzierten. Es gab auch Rekrutierungssoftwares, die Frauen für technische Berufe automatisch vom Bewerbungsprozess ausschlossen. Langsam wird mir klar, welchen Einfluss solche Algorithmen auf die Gesellschaft haben können. Deshalb finde ich, dass Maschinen den Menschen nicht als Entscheidungsträger ersetzen sollten. KI soll ein wertvolles Hilfsmittel sein, das die Informationen automatisiert beschaffen und analysieren kann. Der Mensch kann diese Informationen vor der Entscheidung nochmals reflektieren und hinterfragen. Doch dafür ist es wichtig zu wissen, dass eine Maschine nur so gut ist wie die Daten, mit denen sie trainiert wurde. Diese Daten können Vorurteile und Diskriminierungen enthalten.