Ungeahnte Möglichkeiten durch KI – oder das Ende der Welt?

Wenn dem Zauberlehrling der Papagei entwischt

Seit die Firma OpenAI vor einem Jahr ihren Chatbot ChatGPT zugänglich gemacht hat, ist ein wahrer Hype um «künstliche Intelligenz» entbrannt. Während die einen ungeahnte technologische und wirtschaftliche Möglichkeiten vorhersagen, befürchten andere bzw. die gleichen das Ende der Welt. Regulierungsaufrufe und Forderungen, Forschung und Entwicklung für eine Weile anzuhalten, werden laut. Wir versuchen in diesem Artikel, diese Entwicklungen aus netz- und zivilpolitischer Sicht einzuordnen.

AI-Hype und Forderung nach Regulierung

ChatGPT beruht auf GPT-3/4, einem System der generativen künstlichen Intelligenz. Diese Systeme wurden mit bereits vorhandenen Texten aus dem Internet, z. B. aus Wikipedia, digitalisierten Büchern und anderen Texten, trainiert und sind in der Lage, Texte (die Eingabe) in andere Texte entlang bestimmter Parameter zu transformieren. Chatbots wie ChatGPT können Antworten auf Fragen generieren, und dies auf hohem Niveau, bis hin zum Bestehen von Prüfungen. Sie können Zeitungsartikel, juristische oder wissenschaftliche Texte und auch Computerprogramme produzieren. Sie können aber auch ausgefallenere Dinge tun, z. B. einen Prosa-Text in den Stil eines Shakespeare-Sonetts umschreiben. Andere Systeme sind in der Lage, Texte oder Eingaben in Bilder zu transformieren. Für eine ausführliche Einführung siehe Marcel Waldvogels Blog und das dort erwähnte Video von Karpathy.

Diese Systeme arbeiten, wie andere Systeme des maschinellen Lernens auch, anhand stochastischer Prinzipien, d. h. sie treffen Vorhersagen, welches Textfragment mit grosser Wahrscheinlichkeit auf ein bereits existierendes Fragment folgen sollte. Sie haben weder ein Verständnis der Texte, mit denen sie trainiert wurden, noch der Texte, die sie erzeugen. Diese Transformatoren haben also auch keinen Begriff von Wahrheit. Sie wurden deshalb von Forscher:innen als «stochastische Papageien» bzw. als «Bullshit-Generatoren» bezeichnet («Bullshit», weil das Ziel lediglich die Überzeugung der Leser:innen ist, ohne Beanspruchung von Wahrheit).

ChatGPT wurde nicht nur von Millionen Menschen ausprobiert, sondern auch zur Erzeugung professioneller Texte verwendet, wie z. B. von CNET zur Generierung von journalistischen Texten und juristischen Eingaben. Die Texte enthielten allerdings inhaltliche Fehler und behaupteten nicht existierende Sachverhalte. Dieses Verhalten der Generatoren, Sachverhalte zu erfinden, wird als «Halluzinieren» bezeichnet.

Überrascht durch den Hype und die Benutzerzahlen wurde es den beteiligten Forschern, Firmenmitarbeiterinnen und Managern offensichtlich etwas mulmig. Ein erster Aufruf forderte im März 2023, für sechs Monate das Training von Systemen, die mächtiger als GPT-4 sind, zu unterlassen. In dieser Zeit sollten «Sicherheitsprotokolle» für fortgeschrittene KI-Systeme entwickelt werden. Dieser Brief wurde nicht nur von vielen KI-Forscherinnen und Managern unterschrieben, sondern auch von Silicon-Valley-Prominenz wie Elon Musk und Steve Wozniak.

Zwei Monate später kam es zu einem weiteren Aufruf, der diesmal nur aus einem einzigen Satz bestand, nämlich, dass die Vermeidung der Auslöschung (der Menschheit?) die gleiche globale Priorität haben sollte wie die Vermeidung von Pandemien und Nuklearkriegen. Auch dieser Aufruf wurde von vielen Expert:innen unterschrieben.

Daneben gab es weitere Regulierungsaufrufe, z. B. von Sam Altman, dem CEO von OpenAI, in einer Anhörung des US-Senats. Auch der Präsident von Microsoft, das nicht nur Grossinvestor in OpenAI ist, sondern auch vorhat, KI in viele ihrer Produkte einzubauen, forderte Regulierung.

(Vermeintliche) Gefahren und Risiken von KI in den Forderungen nach Regulierung

Die offenen Briefe und Aufrufe identifizieren vier Gefahren und Risiken der KI:

  • Desinformation
  • Arbeitsplatzverlust
  • Ersetzen der Menschen durch KI
  • Kontrollverlust

Im englischen Wortlaut des offenen Briefes heisst es: «Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders.»

Werden diese Risiken von Entwickler:innen von KI-Systemen und Angestellten der Tech-Firmen postuliert, klingen sie merkwürdig. Wie sind diese Aufrufe aus netzpolitischer und zivilgesellschaftlicher Perspektive einzuordnen? 

Desinformation ist durchaus ein Problem, allerdings nicht erst seit Aufkommen von Chatbots, die auch keine neue Entwicklung sind, wenn man Vorläufer wie das 1966 von Joseph Weizenbaum entwickelte Computerprogramm ELIZA für die Mensch-Maschine-Kommunikation bedenkt. Aber wer bestimmt, was «Propaganda» und «Unwahrheiten» sind? Geht es hier womöglich darum, dass bestimmte Akteure (z.B. die Tech-Firmen) die Deutungshoheit über Wahrheit vs. Desinformation für sich reklamieren?

Desinformation und Hassrede in sozialen Medien und auf Plattformen betreffen heute bereits nicht nur einzelne Nutzer:innen, sondern teilweise ganze Bevölkerungsgruppen und Länder und können zu Gewalttaten, Morden und sogar Genoziden führen, die von aufgehetzten Nutzer:innen begangen werden, wie jüngst in Myanmar oder Äthiopien.

Würden die Plattformen Desinformation tatsächlich für ein Problem halten, könnten sie heute schon Opfern von Hassrede und Desinformation beistehen, in dem sie ihre bereits existierenden Regeln umsetzen und den Quellen von Hassrede und Desinformation somit Einhalt gebieten. Weiterhin hat Youtube angekündigt, Videos, die Lügen über die US-Wahl 2020 verbreiten, in den USA nicht mehr zu löschen. Bekanntlich hat Desinformation über die Wahl 2020 in den USA zu einem versuchten Staatsstreich geführt. Diese Beispiele zeigen, dass es bereits heute vieles gibt, was Tech-Firmen gegen Desinformation tun könnten, ohne auf eine staatliche Regulierung der künstlichen Intelligenz warten zu müssen.

Arbeitsplatzverlust oder zumindest die Auswirkungen von KI auf Arbeitsplätze ist zumindest mittelfristig eine berechtigte Sorge von Arbeitnehmer:innen. Wenn dieses Argument von Tech-Firmen und ihren Entwickler:innen vorgebracht wird, klingt auch dieses Risiko hohl. Wie andere amerikanische Firmen auch wehren sich die Tech-Firmen mit allen möglichen Mitteln gegen Arbeitnehmer:innenvertretungen in ihren Betrieben (z.B. Amazon); sie verstossen gegen geltende Arbeitsschutzgesetze in grossem Massstab (z.B. Uber) oder drängen ihre «Angestellten» in prekäre Arbeitsverhältnisse (ebenfalls Uber). Es fällt deshalb schwer, den Tech-Firmen Ernsthaftigkeit hinter ihren Risikoformulierungen abzunehmen.

Die letzten beiden Risiken, «Outsmarting» der Menschheit durch KI und Kontrollverlust, sind sehr spekulativ. Dagegen gibt es bereits heute existierende und ernstzunehmende durch KI verursachte Probleme.

Tatsächliche Probleme von KI am Beispiel der LLMs

Grosse Sprachmodelle (Large Language Models, LLMs) wie z.B. GPT-3 und 4, weisen in der Tat eine Reihe von Problemen auf, die allerdings in den Forderungen nach Regulierung der Tech-Firmen und KI-Expert:innen nicht benannt werden. Emily Bender und Ihre Kolleginnen analysieren diese Probleme auf sehr umfangreiche Weise in einem wissenschaftlichen Papier. Die Autorinnen legen dar, dass LLMs Texte auf Basis von stochastischen Prozessen generieren und eben nicht auf der Basis eines Verständnisses der gelernten Texte. Sie sprechen deshalb von «stochastischen Papageien».

Das erste Problem, das im Papier von Bender et al. beschrieben wird, sind die Umweltkosten, die das Training der Sprachmodelle verursacht. Trotz der Optimierungen, die versucht werden, verursachen grössere Trainingsdaten höhere Umweltkosten in den Rechenzentren, in denen die Systeme gebaut werden. Diese Umweltkosten sind nicht nur signifikant, es ist auch bezeichnend, dass dieser Aspekt in keinem der anderen Aufrufe Erwähnung findet. Die Autorinnen weisen auch auf eine fundamentale Asymmetrie hin: die Nutzniesser:innen der Sprachmodelle (d.h. diejenigen, die die Funktionalität nutzen können oder mit Sprachmodellen Geld verdienen) sind nicht diejenigen, die unter den ökologischen Folgen zu leiden haben.

Die Analyse von Bender et al. geht davon aus, dass LLMs mit immer grösseren Datenmengen, also Textmengen, trainiert werden. Eine sorgfältige und angemessene Kuratierung dieser Texte ist dabei nicht wirklich möglich. Um zu vermeiden, dass rassistische, frauenfeindliche oder andere Stereotype gelernt werden, müssten die Trainingstexte vorher auf solche Stereotype hin von Menschen analysiert werden. Die Etikettierung von Texten für OpenAI erfolgt z.B. durch Clickworker in Kenia. Diese Arbeit ist einerseits schlecht bezahlt, andererseits höchst traumatisierend für die Clickworker.

Bei einer echten Analyse müssten dabei insbesondere Minderheiten und benachteiligte Gruppen adäquat vertreten sein: Dass Regeln für die Analyse durch weisse junge Männer definiert werden, ob Texte frauenfeindliche oder ethnische Stereotype enthalten, ist wohl in vielen Fällen wenig zielführend. Eine solche Kuratierung ist also nicht wirklich praktikabel, vor allem nicht bei immer grösseren Trainingsdatenmengen (daher der zweite Teil des Artikeltitels von Bender et al.: können Sprachmodelle zu gross sein?). Schon eine adäquate Dokumentierung der verwendeten Trainingstexte ist nicht möglich. Es kann natürlich versucht werden, Hassrede und andere unerwünschte Inhalte in Trainingstexten durch künstliche Intelligenz zu erkennen, was aber das zugrundeliegende Problem nicht wirklich löst.

Es ist somit sehr wahrscheinlich, dass die Texte, mit denen LLMs trainiert werden, rassistische und frauenfeindliche Stereotype enthalten und weitere über andere benachteiligte Gruppen. Ein Sprachmodell wird diese Stereotype also lernen und allenfalls bei der Generierung von Texten reproduzieren. Um diese Effekte zu vermeiden, wird versucht, den Modellen unerwünschte Vorhersagen durch menschliche Bewertung von Antworten wieder abzutrainieren.

Ein weiteres Problem beim Trainieren der Sprachmodelle ist die Überrepräsentation westlicher, weisser, männlicher und privilegierter Personen unter den Entwickler:innen der Modelle als auch unter den Autor:innen der Trainingstexte. Die Weltsicht dieser Gruppe wird also die Trainingsdaten dominieren, und ein LLM wird diese Weltsicht in seinen generierten Texten reproduzieren. Wikipedia selbst dokumentiert seinen Gender Bias bezüglich Autor:innen und Inhalten. Bender et al geben weitere Beispiele für fehlende Diversität in Trainingstexten.

Gefahren und Risiken von KI ausserhalb der LLMs

Künstliche Intelligenz ist ein breites Gebiet, in das, je nach Definition, alle Verfahren und Ansätze gehören, in denen versucht wird, menschliche Intelligenz in Computersystemen nachzubilden. Während grosse Sprachmodelle nur ein Teilbereich von KI sind, beziehen sich die Forderungen nach Regulierung zumindest teilweise auf «KI» an sich. Ein etwas breiterer Überblick über andere Teilbereiche von KI zeigt jedoch,  dass es ausserhalb der Sprachmodelle bereits sehr konkrete Probleme und negative Auswirkungen des Einsatzes von KI gibt. Es ist in diesem Abschnitt nicht möglich, alle Teilbereiche von KI zu untersuchen; wir beschränken uns deshalb auf drei grosse Beispielbereiche: Gesichtserkennung, Emotionserkennung und automatisierte Entscheidungssysteme.

Gesichtserkennung ist eine Form der biometrischen Identifikation und verwendet Techniken der künstlichen Intelligenz. Gesichtserkennung wird schon in vielen Ländern, auch in der Schweiz, eingesetzt, obwohl ihr Einsatz einen massiven Eingriff in die Grund- und Menschenrechte darstellt, indem z.B. Menschen davon abgehalten werden, ihre demokratischen Rechte wie Versammlungs– und Meinungsfreiheit wahrzunehmen.

Emotionserkennung und Verhaltensanalyse basieren auf KI-Techniken und können zum Beispiel eingesetzt werden, um psychologische Diagnosen zu unterstützen oder zu fällen, um kommunikatives Verhalten zu analysieren oder um als Lügendetektor auffälliges oder täuschendes Verhalten erkennen zu können. Sie haben nicht nur ein grosses dystopisches und diskriminatorisches Potential, sondern beruhen ausserdem auf teils fragwürdigen wissenschaftlichen Grundlagen.

Automatisierte Entscheidungssysteme, die typischerweise mit KI-Techniken des maschinellen Lernens gebaut wurden, haben oft ebenfalls ein hohes Diskriminierungsrisiko; ihre Anwendung hat in vielen Fällen massive negative Auswirkungen auf die Menschen, über die mit ihrer Hilfe entschieden wird.

In allen drei Bereichen wird die Problematik verschärft durch die den KI-Verfahren zugrundeliegende Automatisierung und Skalierbarkeit. Skalierbarkeit bedeutet, dass selbst grosse Datenmengen, z.B. Aufnahmen von Gesichtern im öffentlichen Raum, in akzeptabler Zeit verarbeitet werden können, ohne dass dadurch Effizienz und Effektivität leiden.

Negative Auswirkungen wie Diskriminierung, Eingriffe in die Grund- und Menschenrechte durch den Einsatz von KI in den drei genannten (und weiteren) Bereichen werden in den erwähnten Regulierungsaufrufen von Center for AI Safety und dem Future of Life Institute ignoriert. Diese Auswirkungen sind heute real und konkret. Sie beziehen sich nicht auf etwaige dystopische Technikzukünfte, wie dies in den Aufrufen der Unterzeichner:innen mit Aussagen über menschlichen Kontrollverlust oder einer Ausrottung der Menschheit beschworen wird.

Darüber hinaus beteiligen sich viele Firmen, deren Mitarbeiter die beiden Regulierungsaufrufe unterschrieben haben, an der Entwicklung von problematischen Gesichtserkennungs- und Entscheidungssystemen. Das heisst, gerade diejenigen Firmen und Forscher:innen, die das dystopische Potential von künstlicher Intelligenz heraufbeschwören, haben im Grunde bereits konkrete Handlungsmöglichkeiten und -felder der Selbstregulierung. Meredith Whittaker bringt ihre Skepsis an der Aufrichtigkeit der Regulierungsforderungen in einem Interview wie folgt zum Ausdruck:

I don’t think they’re good faith. These are the people who could actually pause it if they wanted to. They could unplug the data centres. They could whistleblow. These are some of the most powerful people when it comes to having the levers to actually change this, so it’s a bit like the president issuing a statement saying somebody needs to issue an executive order. It’s disingenuous.

Die Zauberlehrlinge

Aus netzpolitischer und zivilgesellschaftlicher Perspektive ergibt sich das folgende Bild:

  • Einige der angesprochenen Risiken betreffen heute bereits reale Probleme (sie sind somit streng genommen keine Risiken mehr), ohne dass die Tech-Firmen das ihnen Mögliche dagegen tun würden;
  • andere Risiken sind eher Science Fiction,
  • weitere, sehr reale Probleme von grossen Sprachmodellen werden ignoriert.

Es stellt sich somit die Frage, was die Motivation hinter den Regulierungsforderungen ist. Während einige Autor:innen unterstellen, dass es um die Ausschaltung der Konkurrenz geht, z.B. in Altmans Idee einer staatlichen Lizenzierung von KI-Firmen, vermuten andere, dass das Ziel der Firmen ist, die geforderte Regulierung selbst (mit) zu formulieren. Auch bei früheren Regulierungsforderungen durch die Tech-Firmen (z.B. Facebook)  wurde unterstellt, dass die Firmen die Regulierung selbst definieren möchten. Auch das folgende Zitat von Eric Schmidt, dem ehemaligen CEO von Google, legt diese Interpretation nahe:

Because there’s no way a non-industry person can understand what is possible. It’s just too new, too hard, there’s not the expertise. There’s no one in the government who can get it right. But the industry can roughly get it right and then the government can put a regulatory structure around it.

Vielleicht sind die Akteure hinter den Regulierungsforderungen aber auch Zauberlehrlinge, denen ihre eigenen Fähigkeiten und Erzeugnisse über den Kopf gewachsen sind. Während wir ihre wahren Motive nicht kennen können, fällt es aus vielen Gründen schwer, ihnen die ehrliche Sorge um das Wohlergehen von Gesellschaften bzw. der Menschheit im Allgemeinen abzunehmen:

  • Ethische Bedenken gegen KI-Systeme und das Aufzeigen von Diskriminierungspotential durch kritische Angestellte führten bis in die jüngste Vergangenheit in vielen Fällen zur Massregelung oder sogar Entlassung der Angestellten, anstatt die Kritik ernst zu nehmen und zu adressieren, was bedeuten könnte, ein System mit Diskriminierungsrisiken nicht freizugeben.
  • Ganze KI-Ethik-Teams werden im Zuge von Massenentlassungen mitten im AI-Hype freigestellt.
  • Im Wettrennen um die Dominanz im KI-Bereich werden ethische Bedenken von Angestellten ignoriert und übersteuert.
  • Bisher haben sich die Tech-Firmen anhand von massivem Lobbying gegen Regulierung gewehrt und versucht, jegliche Regulierung als innovationshemmend zu diffamieren.

Was nun?

Welche Handlungsempfehlungen lassen sich aus dem oben Gesagten ableiten?

Tech-Firmen sollten die echten, aktuellen Probleme, die schon keine Risiken mehr sind, da bereits eingetreten, adressieren und die netzpolitischen NGOs unterstützen. Sie könnten z.B. die NGOs bei dem Versuch, den AI Act zu schärfen unterstützen und sollten insbesondere aufhören, Regulierungsbemühungen zu hintertreiben. Schliesslich sollten sie die ethischen Bedenken und Kritiken ihrer Mitarbeiter:innen zulassen und ernst nehmen. Damit sie dies überhaupt tun können, müssen sie diverser werden, so dass die Weltsicht weisser, junger privilegierter Männer nicht länger dominiert.

Zivilgesellschaft und Politik sollten «künstliche Intelligenz» und Plattformen regulieren. Diese Regulierung darf jedoch nicht von Tech-Firmen und ihren kommerziellen Interessen dominiert sein; sie muss demokratisch legitimiert und unter dem Einbezug der Zivilgesellschaft stattfinden und die Perspektive aller Menschen und Gruppen integrieren, die von KI-Systemen betroffen sind. Automatisierte Entscheidungssysteme sollten zuerst reguliert werden, da hier Gefahren und Probleme bereits seit einiger Zeit offen liegen und die Auswirkungen auf Grundrechte und Lebenschancen der Menschen am stärksten zu erwarten sind. Die Fachgruppe ADMS der Digitalen Gesellschaft hat hierzu bereits einen ausführlichen Vorschlag verfasst.

Plattformen müssen ebenfalls reguliert werden. Hier wird eine griffige Regulierung über die existierenden Gesetze wie den Digital Services Act der EU hinaus schwierig sein, da es zu vermeiden gilt, dass die Definition von Wahrheit, und damit Desinformation, bei den Tech-Firmen und/oder den jeweiligen Staaten liegt.

Eine Regulierung von LLMs und Chatbots dagegen ist nur möglich und sinnvoll, nachdem ein gesellschaftlicher Diskurs stattfand und zu einer gesellschaftlichen Übereinkunft führte, wie und wann die Generierung von Texten nützlich ist, und wo sie eher schadet.