© (CC0) Bild mit künstlicher Intelligenz erzeugt (via Midjourney)

In Kürze

  • AlgorithmWatch hat einen öffentlichen Appell an den Bundesrat lanciert, die notwendigen Regulierungen voranzutreiben für eine verantwortungsvolle Künstliche Intelligenz – ohne Diskriminierung:

Hier Appell unterzeichnen

  • Balthasar Glättli hat dieses Anliegen auch im Parlament eingebracht, mit zwei überparteilich mitunterstützten Motionen. Sie wurde von Politiker:innen sämtlicher Fraktionen im Nationalrat mitunterzeichnet.
  • Die grüne Motion 24.3795 fordert: ″Der Bundesrat wird beauftragt, die gesetzlichen Bestimmungen zu schaffen oder anzupassen, um einen angemessenen Schutz vor Diskriminierung durch teil- oder vollautomatisierte Entscheidverfahren zu schaffen.″ 
  • Die grüne Motion 24.3796 fordert: „Der Bundesrat wird beauftragt, die Bundesverwaltung zu verpflichten, bei ihrer Verwendung von algorithmischen und KI-basierten Systemen eine Folgenabschätzung zu grundrechtlichen und gesellschaftlichen Risiken durchzuführen und deren Resultate transparent zu machen. Diese Pflicht soll bei allen Systemen bestehen, die zur Entscheidungsfindung oder -unterstützung in der Bundesverwaltung eingesetzt werden.“
  • Die Vorstösse nehmen Forderungen auf aus dem Appell von 2023: Zivilgesellschaft fordert: Kein Abwarten bei der Regulierung von KI und ADM-Systemen
  • Den Anstoss zu dieser überparteilichen Zusammenarbeit gab die parlamentarische Gruppe Digitale Nachhaltigkeit ParlDigi, welche mit Expedition Zukunft eine Workshopreihe zu Künstlicher Intelligenz organisierte. 
  • Wesentliche inhaltliche Inputs für den Vorstoss lieferte Algorithm Watch Schweiz.

Hinweis: Illustration erzeugt mit künstlicher Intelligenz (Midjourney)

Damit Künstliche Intelligenz den Menschen nützt statt ihnen zu schaden braucht es einen wirksamen Schutz vor Diskriminierungen.
Balthasar Glättli, Nationalrat

Balthasar Glättli (GRÜNE) hat in der Sommersession 2024 überparteilichen Support für zwei Motionen zur KI-Regulierung gefunden. Sie fordern vom Bundesrat, die heute fehlenden gesetzliche Grundlagen zum Schutz vor Diskriminierung durch teil- oder vollautomatisierte Entscheidverfahren zu schaffen. Und sie verlangen Transparenz beim KI-Einsatz durch den Bund.

Das Risiko, dass automatisierte und teilautomatisierte Entscheidungssysteme zur Diskriminierung führen, ist hoch. Dies aus zwei Gründen:

  • Die Qualität der Entscheidungen hängt wesentlich von den Daten ab, die in das System eingespeist werden. Wenn selbst lernende Systeme mit bisherigen Entscheidungen trainiert werden, übernehmen sie automatisch möglicherweise diskriminierende Gruppenzuschreibungen. Die künstliche Intelligenz „erlernt“ selbständig die in den Trainingsdaten vorhandenen Vorurteile und Diskriminierungen. 
  • Gleichzeitig werden computerunterstützte Entscheidungen als „objektiver“ wahrgenommen im Vergleich zu menschlichen Entscheidungen. Selbst wenn am Schluss Menschen aufgrund einer Computerempfehlung den definitiven Entscheid fällen (sogenannt teilautomatisierte Entscheidung), wird der Vorschlag des Computers kaum hinterfragt.

Viele Expert:innen warnen darum davor, dass bereits eingesetzte algorithmische Entscheidsysteme, aber auch der zunehmende Einsatz von Künstlicher Intelligenz die Diskriminierung massiv verstärken könnte. Vgl. dazu den Bericht des Europäischen Netzwerks der Gleichstellungsgremien (Equinet)[1].

Warum braucht die Schweiz neue Regeln zum Schutz vor algorithmischer Diskriminierung?

In der Schweiz ist der Schutz vor Diskriminierung zwar in der Bundesverfassung festgeschrieben. Artikel 8, Absatz 2 der Bundesverfassung lautet nämlich:

Niemand darf diskriminiert werden, namentlich nicht wegen der Herkunft, der Rasse, des Geschlechts, des Alters, der Sprache, der sozialen Stellung, der Lebensform, der religiösen, weltanschaulichen oder politischen Überzeugung oder wegen einer körperlichen, geistigen oder psychischen Behinderung.

Allerdings wird der Diskriminierungsschutz konkret per eigenem Gesetz nur verankert für die Frauen in der Arbeitswelt (im Gleichstellungsgesetz, basierend auf Art. 8 Abs. 3 BV) und für Menschen mit Behinderungen (Behindertengleichstellungsgesetz, basierend auf Art. 8 Abs. 4 BV). Spezielle Strafnormen gibt es zudem gegen Rassismus im öffentlichen Raum. Eine Übersicht zum Schweizer Diskriminierungsverbot von humanrights.ch zeigt aber: viele andere Diskriminierungen können von Betroffenen nicht eingeklagt werden. 

[1] Allen QC, Robin & Masters, Dee (2020). Regulating For An Equal AI: A New Role For Equality Bodies. An Equinet Publication. (14.04.2022).

Algorithm Watch hat am 27.6.2024 einen breit abgestützten Appell veröffentlicht für einen verantwortungsvollen Umgang mit Künstlicher Intelligenz – ohne Diskriminierung.

Unterzeichne auch den Appell an den Bundesrat