Böser Algorithmus, guter Algorithmus. Wie leben damit?
Diese Frage stellen wir uns in der Arbeitsgruppe Netzpolitik der Grünen Schweiz sehr oft. Entscheidungen werden uns zunehmend von automatisierten Entscheidungsverfahren (Algorithmen) abgenommen. Ganz gleich, ob es um die nächste Mahlzeit geht oder um eine Gefahreneinschätzung unserer Person vor Gericht: Die Entscheide sind an Kategorisierungen und Berechnungen von Maschinen gebunden.
Die Fragen können wir in zwei Dimensionen aufteilen:
- Die private Seite: Wie können wir lernen und verstehen, wie Algorithmen funktionieren – und ihre Ergebnisse kritisch entgegennehmen? Welches Wissen, welche Informationen und welche Fähigkeiten braucht es dazu?
- Die gesellschaftliche Seite: In welchen Situationen sollen Algorithmen kritisch begutachtet werden? Welche Bereiche sind zu sensibel, um sie von Maschinen gestalten zu lassen? Wann braucht es Transparenz und Regulation? Mit welchen Mitteln sollen Algorithmen reguliert werden – Gesetze, Zertifizierung, zivilgesellschaftlicher Protest?
Einfache Antworten gibt es nicht. Und gerade deshalb interessierte uns, diese Frage mit vielen Interessierten aus dem Bereich Netzpolitik zu erörtern. Das geeignete Mittel dazu: Im Rahmen des Winterkongress 2019 der Digitalen Gesellschaft organisierten Rahel Estermann und Markus Schmidt im Namen der AG Netzpolitik der Grünen einen Workshop zum Thema.
Die Fragen interessieren und bewegen: Über 70 Personen diskutierten mit uns. Wir unterteilten in Arbeitsgruppen, die je einen Aspekt zum Thema Algorithmen anhand eines Textes diskutierten.
- Mit welchem Daten-Input sollen Algorithmen trainiert werden?
https://www.blaetter.de/archiv/jahrgaenge/2018/august/wider-die-digitale-manipulation (Abschnitt 7)
- Wieviel Transparenz und Kontrolle benötigen selbstlernende Algorithmen?
https://www.wired.de/article/ubernehmt-endlich-verantwortung-fur-eure-algorithmen
- Wo darf der Staat Algorithmen einsetzen und wie muss er sie regulieren?
https://www.republik.ch/2018/09/19/die-tyrannei-des-wahrscheinlichen-in-der-justiz
- Wie sich gegen Algorithmen wehren?
https://www.medienpolitik.net/2017/08/netzpolitikwir-sind-nicht-hilflos/
- Können Algorithmen diskriminieren?
https://verfassungsblog.de/koennen-algorithmen-diskriminieren/
- Wie in der Schule auf Algorithmen vorbereiten?
https://www.nzz.ch/feuilleton/soll-der-mensch-wie-ein-computer-denken-ld.1292090
- Algorithmen anstelle von Vertrauen? China und der Social Credit
https://www.zeit.de/2019/03/china-regime-ueberwachungsstaat-buerger-kontrolle-polizei
- Wirtschaft: Wenn der Algorithmus Preisabsprachen macht
https://www.nzz.ch/wirtschaft/wenn-algorithmen-kartelle-bilden-ld.1415028
Anschauungsbeispiel: Erfolgreich gegen den Algorithmus gewehrt!
Angeregte Diskussionen in den Arbeitsgruppen folgten. Zum Schluss standen die Gruppen vor der Herausforderung, ein Fazit in Tweet-Länge zu fassen. Und: Die oder der Präsentator*in des Fazits bestimmte ein (vorerst intransparenter) Algorithmus. Im Sinne von der Forderung nach transparenten Algorithmen liessen wir das Rätsel nicht ungelöst: Diejenige Person mit dem „vordersten“ Buchstaben (gemäss Alphabet) an dritter Stelle des Vornamens war auserwählt. In einem Fall von zwei identischen Vornamen diskriminierte der Algorithmus nach Lust und Laune – wie im Leben halt. Im Sinne von „Wehr dich gegen den intransparenten Algorithmus!“ setzte die auserwählte Person aus der Arbeitsgruppe 4 das Thema gleich um und wehrte sich gegen die Präsentation – erfolgreich. Mit menschlicher Kompetenz fand die Gruppe einen anderen Präsentator.
Herzlichen Dank allen, die diskutiert haben! Wir freuen uns, mit euch viele weitere Debatten in Politik und Gesellschaft zum Thema Algorithmen zu führen.
Hier die Tweet-Fazite, die wir sogleich auf Twitter und Mastodon teilten (rangiert nach dem Beliebtheitsalgorithmus von Twitter):
Wenn der Staat Algorithmen einsetzt, muss er dies transparent tun. Und je stärker eine Anwendung einzelne Personen betrifft, desto eher sollen Menschen und nicht Maschinen entscheiden. #Winterkongress
— Rahel Estermann (@rahel_estermann) 23. Februar 2019
—
Ideen für Massnahmen, um sich gegen #Algorithmen zu wehren
1. Balance zwischen #digitaleSelbstverteidigung und übergeordnete (staatliche?) Regulierung
2. Bildung zur Sensibilisierung
3. Rekursrecht gegen Entscheide#Winterkongress— Chris Buehler (@socbe) 23. Februar 2019
—
Social-Credit-Algorithmen und deren menschliche Fehlbarkeit als Quellen des Scheinvertrauens mit realen unter Umständen gravierenden Folgen und sozialer Normierung. #winterkongress
— Rahel Estermann (@rahel_estermann) 23. Februar 2019
—
1. Verbot von intransparenten automatisiertem Systemen für Preisentscheidungen. 2. Beschwerde bei der Konsumentenorganisation im Verdachtsfall 3. WEKO fordert den Logik-Code ein, welcher 10 Jahre aufbewahrt werden muss#Winterkongress #8_AutomatischePreissfindung
— Bedo (@hamzza) 23. Februar 2019
—
Ein Algorithmus ist per se nicht diskriminierend. Die Diskriminierung passiert bereits in unseren Köpfen. Einerseits bei der Entwicklung, so wie bei der Auswertung der Resultate. #winterkongress
— Rahel Estermann (@rahel_estermann) 23. Februar 2019
—
Ziel, Nutzen und Aufgaben eines Algorithmus – Beispiele: Verwendete Trainings- und Testdaten, Genauigkeit, Korrektheit und Testen, Auskunftspflicht und Rechtsmittel. #Winterkongress
— Rahel Estermann (@rahel_estermann) 23. Februar 2019
—
Algorithmen sind wichtig, aber nicht das Wichtigste. Die Schule führt an Kennen und Können der Algorithmik heran. Algorithmik wird zu einer Lebenskompetenz. #winterkongress
— Rahel Estermann (@rahel_estermann) 23. Februar 2019