Das Podium zum Thema «Künstliche Intelligenz» im Rahmen der Thuner Digitaltage 2023 lockt mehr als 80 Menschen aller Altersgruppen in den Rathaussaal Thun. Monika Keller ist Projektleiterin des Wirtschaftsraum Thun WRT und verantwortlich für die diesjährigen Digitaltage. Digitaliserung betrifft nicht nur die Wissenschaft – als Individuen, als Gesellschaft stehen wir in der Verantwortung für eine lebenswerte Zukunft. Nur wer informiert ist, kann die künftigen Entwicklungen der KI beeinflussen, kann kritische Fragen stellen und dazu beitragen, dass die Technologie der Gesellschaft dient anstatt ihr zu schaden.
Heute ist künstliche Intelligenz (KI) oder Artificial Intelligence (AI) vor allem im Kontext ChatGPT in aller Munde. Aber KI geht weit über Sprachprogramme hinaus. Was ist heute mit KI bereits möglich und wird weltweit genutzt und wohin geht die Entwicklung? Wie «denkt» und «handelt» die KI, wie gefährlich ist sie für die Zukunft der Menschheit, wie kann sie zum Wohl der Menschen genutzt werden?
Entscheidend ist wie bei jeder Innovation: Wie verantwortungsbewusst gehen wir mit den technischen Möglichkeiten um? Dabei stellen sich auch ethische Fragen: Wofür bleibt der Mensch unverzichtbar und wo kann und darf die Maschine übernehmen? Und jede technologische Neuerung löst neben Euphorie auch Verunsicherung aus.

Moderatorin Rebekka Flotron (28) stellt drei kompetenten ExpertInnen anregende und kritische Fragen. Die Podiumsgäste sind Jeannie Schneider (26), Politikwissenschafterin und Partnerin beim Dezentrum Zürich, ein Think & Do Tank für Digitalisierung und Gesellschaft. Dezentrum setzt sich für eine digitale Transformation ein, die der Gesellschaft dient. Jürgen Vogel (48) lehrt und forscht an der Berner Fachhochschule zu den Themen «Maschinelles Lernen» und «Textanalyse». Estelle Pannatier (28) engagiert sich bei der Menschenrechtsorganisation AlgorithmWatch CH. Sie setzt sich dafür ein, dass Algorithmen und KI Gerechtigkeit, Demokratie und Nachhaltigkeit stärken und nicht schwächen.
Künstliche Intelligenz – Versuch einer Definition
Die Podiumsgäste sind sich einig: KI ist ein irreführender und unpräziser Sammelbegriff, der impliziert, dass Maschinen genauso intelligent sein können wie wir Menschen. Aus Sicht der Podiumsgäste ist dies ein grosser Irrtum – wir dürfen Maschinen keine menschlichen Eigenschaften zuschreiben. Heute ist sich die Wissenschaft nicht einmal darüber einig, was menschliche Intelligenz ausmacht oder was genau menschliche und tierische Intelligenz unterscheidet. Deshalb verwenden sie alle in ihrem beruflichen Umfeld den Begriff bewusst nicht. Stattdessen sprechen sie präziser von «Machine Learning», von «algorithmischen Entscheidungssystemen» oder von simulierter Intelligenz.
«Wir sind heute sehr, sehr weit entfernt von einer Technologie, die den Menschen als eigenständig denkendes, lebendiges, bewusstes und einfühlsames Wesen nachahmen kann.»
Jürgen Vogel
Heute können Maschinen lediglich anhand sehr vieler Beispieldaten Muster erkennen und auf neue Situationen anwenden. Dahinter stecke nicht besonders viel Intelligenz, sagt Jürgen Vogel. Maschinen können lediglich übersetzen oder neu zusammensetzen, nichts anderes. Wir seien heute sehr, sehr weit entfernt von einer Technologie, die den Menschen als eigenständig denkendes, lebendiges, bewusstes und einfühlsames Wesen nachahmen kann.
KI in aller Munde – weshalb der plötzliche Hype?
Obwohl der Begriff «Künstliche Intelligenz» bereits seit 1956 existiert, reden die meisten Menschen erst seit anfang 2022 davon und auch die Medien berichten regelmässig. Seither hat auch die breite Bevölkerung Zugang zu Formen von KI, insbesondere dem Bildgenerator DALL-E und seit Frühling auch zu Chat GPT.
Hinter beiden Angeboten steht die Firma Open AI, erklärt Jeannie Schneider. Heutige Hauptaktionärin ist Microsoft, Begründer war mit anderen Elon Musk. Unschwer zu verstehen, dass hinter dem ganzen Hype ein Geschäftsmodell steht, mit dem unglaublich viel Geld verdient wird.

Drei Umstände führten zur weltweiten Aufmerksamkeit:
Zuerst wurden mit einer äusserst geschickten Marketingstrategie durch einen zuerst exklusiven und danach schrittweisen Zugang Neugier und Bedürfnisse der UserInnen gezielt angekurbelt.
Zum zweiten ist es wirklich beeindruckend – im Guten wie im Schlechten – in welchem Tempo und mit welcher Qualität fortgeschrittene KI-Technologien komplexe Aufgaben wie Bildgenerierung und Textbearbeitung bewältigen.
Letztendlich führte die Aussage der Entwickler, KI könne 47 Prozent der Arbeitsplätze wegrationalisieren zu viel Aufmerksamkeit. Diese Botschaft wird von den Podiumsgästen allerdings klar bestritten. Wahr ist, dass die digitale Automatisierung zu einer grossen Veränderung von Arbeit führt. Die Kluft zwischen arm und reich wird immer grösser.
Monopolfirmen und Investoren bereichern sich, während «Clickworker» weltweit unter miserablen Arbeitsbedingungen beispielsweise ChatGPT laufend optimieren.
ChatGPT – denkendes System oder Blackbox?
Jürgen Vogel erklärt am Beispiel ChatGPT die Funktion einer Form von Sprachintelligenz. Das Programm wurde mit unendlich vielen Texten «gefüttert», es lernt Sprache und ahmt sie nach. So kennt Chat GPT natürlich auch typische Begrüssungsformeln für ein Podium. Indem das Programm Sprache in einzelne Bausteine zerlegt und neu kombiniert, entstehen «neue» Texte, also nicht einfach Plagiate. Es entstehen neue und kreative Kombinationen – das beeindruckt natürlich die UserInnen. ChatGPT verhält sich zudem im «Dialog» wie ein sehr höfliches und intelligentes Gegenüber.

Doch Vorsicht – wir haben es hier mit einer Maschine zu tun, die zufällig Worte aus einem immensen Pool wählt und nicht mit einem echten Dialogpartner. Und ChatGPT ist keine Suchmaschine, die Wissen und Fakten vermittelt! Nicht einmal die Entwickler wissen, nach welchen Kriterien die Maschine die eingegebenen Daten verarbeitet. Gleichzeitig nutzt die ChatGPT alle von uns eingegebenen Texte, um kontinuierlich dazuzulernen. Auch das gehört zum Geschäftsmodell der Entwickler.
«Bei der Weiterentwicklung «künstlicher Intelligenz» muss ein Mehrwert für die Gesellschaft und nicht einfach nur «Effizienzsteigerung» oder Gewinn im Fokus stehen.»
Jürgen Vogel
Milliarden wurden investiert, um ChatGPT zu entwickeln – dafür braucht es mächtige Firmen und Geldgeber, die vorab am Profit interessiert sind. Hier müssen Wissenschaft, Politik und Individuen wachsam bleiben. Bei der Weiterentwicklung von KI muss ein Mehrwert für die Gesellschaft und nicht einfach nur «Effizienzsteigerung» oder Gewinn im Fokus stehen.
KI ist omnipräsent – ein Blick hinter die Kulissen
KI wird von der breiten Bevölkerung oft direkt mit ChatGPT assoziiert. Aber algorithmische Systeme werden in unglaublich vielen Zusammenhängen genutzt – wir sind uns dessen nur nicht bewusst. Estelle Pannatier nennt einige Beispiele aus dem Automatisierungsatlas von AlgorithmWatch, die uns ganz direkt betreffen:
- Personalrekrutierung mit automatisierter Dossierbewertung
- Überwachung und Analyse von Leistungen der Mitarbeitenden mit People Analytics
- Risikoanalysen bei der Strafverfolgung
- Biometrische Geischtserkennung bei der Kantonspolizei
KI ist also nicht einfach gut oder schlecht. Sie wird seit langem verwendet und ist aus unserer Zukunft nicht mehr wegzudenken. Jeannie Schneider betont, das es jeweils extrem auf die Einsatzbereiche und die Ziele der Technologie ankommt. Dient die KI dem öffentlichen Wohl der Gesellschaft? Welche Weltsicht und Motivation stecken dahinter, welche Datensätze werden verwendet, was sind die Zielgruppen?

Dazu hat die Humboldt Universität Berlin einen Kriterienkatalog entwickelt. Sind technologische Standards erfüllt? Stärkt diese KI die Gleichheit unter Menschen und ist das Bedürfnis für den Einsatz begründbar? Die Optiminerung der Stromverteilung oder der Bewässerungssysteme in einer Stadt sind gelungene Beispiele für den Nutzen von KI.
Chat GPT erfüllt diese Standards deutlich nicht. Das Modell dient der Gewinnoptimierung Einzelner, es fehlt an Transparenz, an ethischen Regeln und externer Kontrolle.
Ängste, Verunsicherung und viele Missverständnisse
KI Modelle stehen seit kurzer Zeit als Dienstleistung für alle zur Verfügung. Alle reden darüber, die Medien berichten täglich darüber. Aber wissen wir genug? Sind wir einfach Opfer oder haben wir Mitsprachemöglichkeiten? Das Mentimeter zeigt die Gestimmtheit des Publikums. Viele Menschen haben Angst vor Kontrollverlust, vor Datendiebstahl und Machtmissbrauch, vor Fake News und Manipulation.
Die PodiumsteilnehmerInnen sind sich einig: Die Allgemeinheit weiss zu wenig über KI und das löst verständlicherweise Verunsicherung und Angst aus. Wir brauchen als Gesellschaft zwingend ein besseres Verständnis für den Begriff KI, um kritisch mitdenken und allenfalls intervenieren zu können. Die ExpertInnen nennen einige der häufigsten Missverständnisse:
- KI ist keineswegs «künstlich», sie ist ausgesprochen materiell: Bereits der Stromverbrauch der Systeme frisst ganz unglaublich viele ökologische Ressouren. Der Begriff «künstlich» impliziert zudem, KI komme einfach so aus dem Nichts. Aber die Datensätze werden von Menschen eingegeben und repräsentieren eine gewisse Weltsicht. Oft sind die Daten bereits verzerrt und vereinfachend – deshalb ist der Output beispielsweise nach einer WählerInnen-Befragung lediglich eine Interpretation und keine objektive Wahrheit.
- Differenzieren statt generalisieren: Welche Datensätze werden verwendet, welche Zielgruppe und welches Thema wird angepeilt? Eine Wetterprognose ist zum Beispiel wenig risikobehaftet. Daneben gibt es algorithmische Systeme, die eigenständig Empfehlungen und Inhalte generieren, die zu Entscheiden mit grossen Konsequenzen führen. Hier wird es gefährlich und auch unsere demokratischen Grundrechte stehen auf dem Spiel.
- Wir alle sind betroffen: Das Thema der digitalen Transformation scheint zu anspruchsvoll und wird an die Wissenschaft und die Politik delegiert – dabei sind jedes Smartphone oder unser Haushalt voll von selbstlernenden Programmen. Auch unsere Meinungsbildung wird von lernenden Maschinen täglich beeinflusst.
- «Maschinen machen keine Fehler»: Diese Annahme ist gefährlich, denn alle Menschen und Maschinen sind fehlerbehaftet. Wir vertrauen zum Beispiel unserem Navi so sehr, dass wir am Ende im Nirgendwo oder in einem Hafenbecken landen. Das Gespräch über den Umgang mit der Fehlerwahrscheinlichkeit und der Haftung in einem Schadenfall wird noch kaum geführt.

Die grössten Risiken
Die Risiken beim Einsatz mit KI sind unbestritten. Es braucht einerseits klare Regeln und Gesetze der Regierungen. Aber auch wir als Individuen und Gesellschat stehen in der Verantwortung – Selbstinformation, Wissen, restriktiver Umgang mit unseren Daten, kritische Wachsamkeit sind nötig, um diese Risiken zu minimieren. Gemeinsam tragen die ExpertInnen einen (unvollständigen) Risikokatalog zusammen.
- Menschenrechte, Demokratie, Diskriminierung: Als Beispiel wird die Gesichtserkennung gennannt, die die Privatsphäre und die Versammlungsfreiheit beeinträchtigen kann. Auch die ethnische Zugehörigkeit kann aufgrund biometrischer Daten erfasst werden. Algorithmische Systeme in der Verwaltung können das Recht auf Gehör und faire Verfahren beeinträchtigen.
- Datenschutz: Trotz guter Gesetze, gerade in der Schweiz und in der EU und ausführlicher AGB’s (die niemand mehr lesen mag) wissen wir nicht wirklich, welche Daten genau erfasst und gespeichert werden, wer darauf Zugriff hat und wie unsere Daten auch kombiniert werden.
- Desinformation: Es ist unglaublich einfach geworden, böswillig Fake News und Bilder zu verbreiten. Aber Maschinen können auch ohne Absicht fehlerhaft informieren, indem sie neue Text-Kombinationen vorschlagen, die nicht der Wahrheit entsprechen.
- Verbindung von Sprachmodellen mit Suchmaschinen: Sprachmodelle, insbesondere die Verbindung von BING Chat mit Suchmaschinen, liefern fehlerhafte Ergebnisse, Prognosen und Empfehlungen. Uns werden selbstdenkende und wissende «Dialogpartner» vorgegaukelt. Wir werden dazu verführt, den Informationen Glauben zu schenken oder uns für sehr höfliche Auskünfte sogar zu bedanken. Dabei haben wir es «nur» mit Maschinen zu tun, die Suchergebnisse und Worte rein zufällig neu kombinieren – mit objektiven Fakten hat das gar nichts zu tun.
Die Risiken können nur zu einem kleine Teil von den UserInnen minimiert werden – sobald wir digital unterwegs sind, sind wir gefährdet. Abstinenz bei der digitalen Transformation ist keine Lösung – wir könnten so heute nicht einmal mehr unseren Bürgerpflichten nachkommen. Deshalb dürfen wir die Technologie auch nicht Monopolfirmen überlassen, sonst haben wir als VerbraucherInnen bald gar keine Freiheiten mehr.
Die Zukunft mitgestalten
Als Gesellschaft müssen wir mitbestimmen, in welche Richtung sich «künstliche Intelligenz» entwickelt. Diese Entscheidung dürfen wir nicht den grossen Tech-Firmen überlassen. Es braucht dringlich und rasch klare rechtliche Rahmenbedingungen und politische Standards wie Transparenz, Nachvollziehbarkeit, Schutz vor Diskriminierung für den Einsatz algorithmischer Systeme.
«Als Gesellschaft müssen wir mitbestimmen, in welche Richtung sich «künstlicher Intelligenz» entwickelt. Diese Entscheidungen dürfen wir nicht den grossen Tech-Firmen überlassen..»
Estelle Pannatier
Der Regulierungsbedarf ist hoch. Hier stehen Regierungen und Wissenschaft in der Pflicht. Die EU strebt eine KI-Verordnung an, der sich wohl auch die Schweiz anschliessen wird.
Das Potenzial von algorithmischen System sinnvoll nutzen
In Forschung und Bildung wird das Potenzial neuer Technologien intensiv genutzt. Es entstehen neue und attraktive Lehr- und Lernformen. Dank Machine Learning können Arbeitsprozesse effizienter gestaltet werden. Die Fachhochschule begleitet in industrienahen Forschungsprojekte regionale KMU’s bei der Lösungssuche für komplexe Aufgaben. Daneben sieht Jürgen Vogel in den neuen Technologien auch eine gesellschaftliche Herausforderung an die Hochschulen: Das Wissen muss demokratisiert werden. Die breite Bevölkerung soll verstehen, wie Machine Learning funktioniert, wie es genutzt wird und welche Chancen und Gefahren damit verbunden sind. Diese Themen müssen bereits sehr früh in der Bildung vermittelt werden. Nur so bleiben wir als Gesellschaft entscheidungsfähig und können künftige digitale Entwicklungen mitgestalten.
«Die breite Bevölkerung soll verstehen, wie Machine Learning funktioniert, wie es genutzt wird und welche Chancen und Gefahren damit verbunden sind.»
Jürgen Vogel
Algorithmische Systeme können zum Besseren der Menschheit und der Welt genutzt werden – die medizinischen Errungenschaften sind ein gutes Beispiel dafür. Dafür macht sich das Dezentrum Zürich stark. Es braucht aber einen Fokus-Wechsel: Der Nutzen von KI für die Gesellschaft und die Welt muss vor dem finanziellen Profit stehen. Leider wird längst nicht alles, was möglich ist von der Wirtschaft oder der Politik gefördert. Beispielsweise ermöglichen die verschiedenen Formen von KI, dass wir immer effizienter arbeiten. Grundsätzlich könnten wir also bei gleicher Wirtschaftsleistung ohne Lohneinbusse weniger arbeiten und hätten dafür mehr Zeit für die Familie, für Care Arbeit und Hobbies. Das würde der ganzen Gesellschaft sehr viel Nutzen bringen. Die Podiumsgäste beobachten allerdings, dass die wirtschaftliche und die politische Realität nicht so sind. Stattdessen führt die Konzentration von Wissen, Reichtum und Macht zu immer mehr sozialer Ungleichheit in der Gesellschaft – und diese Konzentration ist menschengemacht, nicht «künstlich».
«Wir müssen uns auf den Mehrwert für die Gesellschaft und das Individuum fokussieren, nicht auf die Gewinnoptimierung.»
Jeannie Schneider
AlgorithmWatch engagiert sich für eine bessere Welt ohne Diskriminierung, für Gleichheit und Gerechtigkeit. Viele algorithmische Systeme verzerren die Realität oder grenzen Menschen aus. Deshalb gilt es immer wieder zu prüfen, mit welcher Weltsicht und mit welcher Motivation algorithmische Systeme eingesetzt werden. KI kann nur so gut sein, wie die Datensätze, die eingegeben werden. Estelle Pannatier ist sich mit der Vorrednerin einig: Wir müssen uns auf den Mehrwert für die Gesellschaft und das Individuum fokussieren, nicht auf die Gewinnoptimierung.

Jeannie Schneider plädiert dafür, künstliche Intelligenz als Ergänzung zu menschlicher Intelligenz zu nutzen. Was kann die Maschine besser als der Mensch? Als Beispiel erzählt sie von Herdenbeobachtungen auf der ganzen Welt mittels GPS. Das algorithmische System erkannte dabei typische Bewegungsmuster im Zusammenhang mit nahenden Erdverschiebungen, die präziser waren als jeder existierende Seismograf. Diese schnelle Musteranalyse kann die menschliche Intelligenz nicht leisten. Auch darin steckt unglaublich viel Potenzial.
«Das Ziel «künstlicher Intelligenz» darf nicht sein, die menschliche zu imitieren. Der Fokus sollte sich stärker auf Unterschiede richten und diese Unterschiede nutzen.»
Jeannie Schneider
Zukunftsvisionen – Apokalypse oder eine bessere Welt?
Rebekka Flotron möchte wissen, ob wir alle enden wie die Protagonisten im Film «Matrix», nämlich als körperliche Hülle die mit einer virtuellen Realität verkabelt ist. Die Menschheit ist mit grossen Herausforderungen konfrontiert und es ist schwierig, sich eine nicht-apokalyptische Zukunft vorzustellen. Viele Menschen fühlen sich überfordert, ohnmächtig und haben das Gefühl – auch auf technologische Entwicklungen – nur noch reagieren zu können. Die ExpertInnen sind überzeugt, dass die ganzen Prognosen zu einer apokalyptischen Zukunft von CEOs, von mächtigen Firmen wie Google oder Open AI gezielt angefeuert werden, denn das generiert Investoren. Genau dieselben Protagonisten propagieren auch die Entwicklung einer Superintelligenz, die die Menschen überflüssig macht – Apokalypse als Marketingstrategie.
Deshalb muss der Diskurs zur Zukunft der technologischen Entwicklung in der Gesellschaft, in Wissenschaft und Politik geführt werden. Wir können und müssen uns Gedanken machen, wofür wir die Technologien sinnvoll einsetzen wollen. Wir wollen uns eine bessere Zukunft vorstellen können, damit wir wieder konstruktiv mitdenken, agieren und entscheiden können. Die drei Podiumsgäste arbeiten auf eine Zukunft hin, die uns glücklicher macht, die zum Wohl der Menschheit beiträgt. Sie alle sind zuversichtlich, dass wir auf gutem Weg sind, die digitalen Möglichkeiten zum Nutzen der Erde und ihrer Lebewesen zu verwenden.

Das Digitalpodium zum Nachschauen und Nachhören
Als Videopodcast: YouTube
Als Audiopodcast: Soundcloud | Spotify | Apple Podcast