Schlagwort-Archive: China

Böser Algorithmus, guter Algorithmus. Wie leben damit?

Diese Frage stellen wir uns in der Arbeitsgruppe Netzpolitik der Grünen Schweiz sehr oft. Entscheidungen werden uns zunehmend von automatisierten Entscheidungsverfahren (Algorithmen) abgenommen. Ganz gleich, ob es um die nächste Mahlzeit geht oder um eine Gefahreneinschätzung unserer Person vor Gericht: Die Entscheide sind an Kategorisierungen und Berechnungen von Maschinen gebunden.

Die Fragen können wir in zwei Dimensionen aufteilen:

  • Die private Seite: Wie können wir lernen und verstehen, wie Algorithmen funktionieren – und ihre Ergebnisse kritisch entgegennehmen? Welches Wissen, welche Informationen und welche Fähigkeiten braucht es dazu?
  • Die gesellschaftliche Seite: In welchen Situationen sollen Algorithmen kritisch begutachtet werden? Welche Bereiche sind zu sensibel, um sie von Maschinen gestalten zu lassen? Wann braucht es Transparenz und Regulation? Mit welchen Mitteln sollen Algorithmen reguliert werden – Gesetze, Zertifizierung, zivilgesellschaftlicher Protest?

Einfache Antworten gibt es nicht. Und gerade deshalb interessierte uns, diese Frage mit vielen Interessierten aus dem Bereich Netzpolitik zu erörtern. Das geeignete Mittel dazu: Im Rahmen des Winterkongress 2019 der Digitalen Gesellschaft organisierten Rahel Estermann und Markus Schmidt im Namen der AG Netzpolitik der Grünen einen Workshop zum Thema.

Die Fragen interessieren und bewegen: Über 70 Personen diskutierten mit uns. Wir unterteilten in Arbeitsgruppen, die je einen Aspekt zum Thema Algorithmen anhand eines Textes diskutierten.

  1. Mit welchem Daten-Input sollen Algorithmen trainiert werden?
    https://www.blaetter.de/archiv/jahrgaenge/2018/august/wider-die-digitale-manipulation (Abschnitt 7)
  1. Wieviel Transparenz und Kontrolle benötigen selbstlernende Algorithmen?
    https://www.wired.de/article/ubernehmt-endlich-verantwortung-fur-eure-algorithmen
  1. Wo darf der Staat Algorithmen einsetzen und wie muss er sie regulieren?
    https://www.republik.ch/2018/09/19/die-tyrannei-des-wahrscheinlichen-in-der-justiz
  1. Wie sich gegen Algorithmen wehren?
    https://www.medienpolitik.net/2017/08/netzpolitikwir-sind-nicht-hilflos/
  1. Können Algorithmen diskriminieren?
    https://verfassungsblog.de/koennen-algorithmen-diskriminieren/
  1. Wie in der Schule auf Algorithmen vorbereiten?
    https://www.nzz.ch/feuilleton/soll-der-mensch-wie-ein-computer-denken-ld.1292090
  1. Algorithmen anstelle von Vertrauen? China und der Social Credit
    https://www.zeit.de/2019/03/china-regime-ueberwachungsstaat-buerger-kontrolle-polizei
  1. Wirtschaft: Wenn der Algorithmus Preisabsprachen macht
    https://www.nzz.ch/wirtschaft/wenn-algorithmen-kartelle-bilden-ld.1415028

Anschauungsbeispiel: Erfolgreich gegen den Algorithmus gewehrt!

Angeregte Diskussionen in den Arbeitsgruppen folgten. Zum Schluss standen die Gruppen vor der Herausforderung, ein Fazit in Tweet-Länge zu fassen. Und: Die oder der Präsentator*in des Fazits bestimmte ein (vorerst intransparenter) Algorithmus. Im Sinne von der Forderung nach transparenten Algorithmen liessen wir das Rätsel nicht ungelöst: Diejenige Person mit dem „vordersten“ Buchstaben (gemäss Alphabet) an dritter Stelle des Vornamens war auserwählt. In einem Fall von zwei identischen Vornamen diskriminierte der Algorithmus nach Lust und Laune – wie im Leben halt. Im Sinne von „Wehr dich gegen den intransparenten Algorithmus!“ setzte die auserwählte Person aus der Arbeitsgruppe 4 das Thema gleich um und wehrte sich gegen die Präsentation – erfolgreich. Mit menschlicher Kompetenz fand die Gruppe einen anderen Präsentator.

Herzlichen Dank allen, die diskutiert haben! Wir freuen uns, mit euch viele weitere Debatten in Politik und Gesellschaft zum Thema Algorithmen zu führen.

Hier die Tweet-Fazite, die wir sogleich auf Twitter und Mastodon teilten (rangiert nach dem Beliebtheitsalgorithmus von Twitter):

Teilen macht Freude: