Künstliche Intelligenz und internationales Regelwerk

Bund engagiert sich zu KI- und ADM-Systemen

Der Bericht an den Bundesrat «Künstliche Intelligenz und internationales Regelwerk» hat am 13. April 2022 das Licht der Öffentlichkeit erblickt. Neben den internationalen Entwicklungen im Bereich KI-Regulierung gibt er einen Ausblick auf die Regulierungsbestrebungen in der Schweiz und zeigt die Prozesse innerhalb der Bundesverwaltung auf. Die Digitale Gesellschaft beteiligt sich aktiv an der Diskussion und hat bereits ein ausführliches Positionspapier zum Thema ADM-Systeme in der Schweiz veröffentlicht. In diesem Blog-Post vergleichen wir den Bericht an den Bundesrat mit unserer Position und fordern eine schnellere Progression.

Es geht vorwärts!

Der Bericht an den Bundesrat (PDF) ist ein grosser Schritt in die richtige Richtung. Er anerkennt die Relevanz des Themas und spricht sich positiv gegenüber den Regulierungsbestrebungen aus. Die wichtigsten Diskussionspunkte werden unserer Meinung nach erwähnt: ADM-Systeme integrieren und verfestigen gesellschaftliche Werte und transportieren sie über Kulturgrenzen hinweg. Diese neuen Systeme bergen viel Potential, werfen aber Grundfragen zum zukünftigen Verhältnis von Mensch und Maschine auf. Diese Fragen und vor allem deren rechtliche Implikationen in Bezug auf Diskriminierung, Manipulations- und Überwachungspotential durch zentralisierte Systeme sowie Verantwortlichkeit und Haftung in einem sich schnell und dynamisch entwickelnden, alles übergreifenden Umfeld werden aufgezeigt. Entscheidend wird auch die geostrategische Bedeutung von ADM-Systemen sein, z.B. für erhöhte Industrieeffizienz und automatisierte Waffensysteme.

KI, AI, und ADM-Systeme

Mit den Begriffen Künstliche Intelligenz (KI, englisch auch AI), Maschinellem Lernen (englisch auch Machine Learning, ML) werden umgangssprachlich Computer-Systeme bezeichnet, welche spezifische, meist sehr komplexe Aufgaben automatisiert bearbeiten können. Der Begriff Automatisierte Entscheidungssysteme (englisch Automated Decision Making, ADM) weitet die Definition auf Systeme mit auch nur teilweise automatisierten Prozessen aus. Einige aber nicht alle dieser Systeme werden auch als «datengetrieben» bezeichnet: Sie lesen Lösungsprozesse für Probleme aus einer grossen Beispieldatenmenge heraus. Grundsätzlich sind die Begriffe nicht klar definiert und werden je nach Kontext unterschiedlich eingesetzt. Zu ADM-Systemen hat die Digitale Gesellschaft diesen Winter ein ausführliches Positionspapier veröffentlicht.

Die Entstehung eines internationalen Regelwerks zu KI wird in fünf Ebenen eingeteilt. Diese gehen von der völkerrechtlichen Ebene über Soft Law, relevante Erlasse globaler Akteure und technische Standards, bis hin zur de-facto Realität der technischen und industriellen Entwicklung. Auf einigen dieser Ebenen engagiert sich der Bund bereits oder bereitet dies vor. Im Schweizer Kontext ist die geplante Schaffung einer fachlich breit abgestützten «Fachgruppe zu Rechtsfragen» («Knotenpunkt Recht») besonders zu erwähnen, welche als Anlaufstelle für rechtliche Expertise im Umgang mit KI in der Bundesverwaltung fungieren soll und die horizontalen Strukturen des Kompetenznetzwerks KI (CNAI) erweitert. Der Bund plant, die dafür dringend benötigten Kompetenzen aufzubauen.

Während der Bericht die internationalen Diskussionen im öffentlichen Recht gut zusammenfasst, vermissen wir die Forderung nach mehr Regulation der Privatwirtschaft. Auch werden die zivilgesellschaftlichen Organisationen, die sich in der Schweiz für eine Regulierung von ADM-Systemen stark machen, wie z. B. AlgorithmWatch und die Digitale Gesellschaft, mit keinem Wort erwähnt.

Es braucht mehr!

Die vorgeschlagenen Ansätze gehen uns nicht weit genug. ADM-Systeme haben durch die fälschlicherweise zugeschriebene Neutralität und Objektivität das Potential, Wertesysteme zu unterwandern und sich mit ihrer starren Prozesslogik in der Basis unserer Handlungsfreiheiten zu verfestigen. Diese Risiken gehen deutlich weiter als nur Diskriminierungs- oder Manipulationsrisiken. Und sind diese Systeme erst einmal etabliert, wird eine nachträgliche Korrektur nur schwer möglich sein. Wir benötigen Massnahmen jetzt, solange wir noch Leitplanken setzen können.

Wir fordern genug Transparenz beim Einsatz von ADM-Systemen, um diese Entwicklung auch in der Privatwirtschaft abschätzen zu können. Eine detaillierte Kategorisierung der Transparenzpflichten je nach Risiko schlagen wir in unserem Positionspapier vor. Für Systeme in Erfüllung eines öffentlichen Auftrags, wie sie z.B. der Schweizer Staat einsetzt, fordern wir zusätzlich komplette Offenlegung der Funktionsweise, soweit dies mit Datenschutzgesetzen und Lizenzvereinbarungen möglich ist. Ganz nach der Motto «Public Money? Public Code!» Dies soll auch explizit für Systeme der Strafverfolgungsbehörden und Nachrichtendienste gelten.

Damit auf das Wissen um Missstände auch Handlungen folgen können, fordern wir eine klare verschuldensunabhängige Haftung, die durch Verwaltungssanktionen durchgesetzt wird. Da wir zugunsten der geringeren Bürokratie auf Selbstdeklaration der Unternehmen setzen, soll bei unzureichender Klassifikation der ADM-Systeme auch ohne nachgewiesene Schadensabsicht Handlungsspielraum für Klagen bestehen. Aufgrund der Asymmetrie der Beweislast bei gewerblich betriebenen Systemen fordern wir eine Beweislastumkehr.

Wir blicken den Regulierungsbestrebungen des Bundes positiv entgegen und hoffen, dass die im Bericht erwähnte «normative Kraft des Faktischen durch die technologische Entwicklung» als Ansporn zur Regulierung verstanden wird und nicht als Ausrede zur Resignation.

Weiterführende Informationen