Digitales für soziales Miteinander

Mehr Algorithmen fürs Gemeinwohl?

Algorithmische Systeme könnten nach Ansicht der Digitalethikerin Julia Gundlach noch viel stärker für Zwecke des Gemeinwohls eingesetzt werden. Es gebe Beispiele, wie sich mit Hilfe von Algorithmen gesellschaftliche Probleme besser lösen ließen.

Autor/in:
Christine Ulrich
Symbolbild Digitalisierung / © Nicolas Armer (dpa)
Symbolbild Digitalisierung / © Nicolas Armer ( dpa )

Die Digitalethikerin Julia Gundlach arbeitet bei der Bertelsmann-Stiftung in Berlin im Projekt "Ethik der Algorithmen" und forscht zu deren gesellschaftlichen Risiken und Chancen, etwa bei der algorithmenbasierten Vergabe von Kitaplätzen.

Mithilfe einer bestimmten Software könne die Kitaplatzvergabe "effizienter und bestenfalls gerechter" gestaltet werden, sagte die Forscherin. Die Kriterien dafür, welche Eltern bevorzugt einen Platz bekommen, würden gemeinsam mit den Menschen vor Ort entwickelt und in Algorithmen übersetzt. Die Software erstelle eine Reihenfolge für die aufzunehmenden Kinder, die Kitaleitung könne noch Änderungen vornehmen. So könne die Verteilung algorithmisch unterstützt werden. Dadurch würden die Kriterien transparenter und das System womöglich fairer, sagte Gundlach. Das System sei in einigen Gemeinden bereits erprobt worden.

Mehr Transparenz

Um mehr Verständnis für die technischen Systeme zu schaffen, "müssen wir sie gut erklären und partizipativ entwickeln", sagte die Ethikerin. Es brauche Vertrauensbildung und Informationsvermittlung. Zudem müssten die Verantwortlichen hinter der Software zu erkennen
sein: "Auch wenn sehr komplexe Systeme entwickelt und eingesetzt werden, dürfen Menschen nicht die Verantwortung für die Ergebnisse abgeben."

Zudem brauche es mehr Transparenz, wo überall algorithmische Systeme eingesetzt werden, forderte die Volkswirtin. Die Bertelsmann-Stiftung habe gemeinsam mit der Nichtregierungsorganisation "AlgorithmWatch" die Plattform "unding.de" ins Leben gerufen, wo Betroffene Kritik an algorithmischen Mechanismen melden können, die an die Unternehmen weitergeleitet wird. Als Beispiel nannte sie etwa diskriminierende Erfahrungen mit algorithmischen Systemen oder auch den Fall, wenn eine Navigationssoftware immer wieder durch eine Spielstraße für Kinder führt.


Quelle:
epd