Informatikerin über Künstliche Intelligenz und Kirche

"Künstliche Intelligenz kann keine Gnade ausüben"

Algorithmen sind in verschiedensten Zusammenhängen im Einsatz - und oft umstritten. Im Interview erklärt die Informatikerin Katharina Anna Zweig, warum sie die Stimme der Kirchen in der Debatte um Künstliche Intelligenz vermisst.

Symbolbild Künstliche Intelligenz / © Hauke-Christian Dittrich (dpa)
Symbolbild Künstliche Intelligenz / © Hauke-Christian Dittrich ( dpa )

KNA: Wissen die Menschen ausreichend Bescheid über Algorithmen und ihren Einsatz?

Prof. Katharina Anna Zweig (Professorin der TU Kaiserslautern und Sachverständige der Enquete-Kommission Künstliche Intelligenz (KI) des Bundestags): Eine Umfrage der Bertelsmann-Stiftung hat kürzlich ergeben, dass die Mehrheit nicht so genau weiß, was Algorithmen eigentlich sind. Glücklicherweise ist das schnell erklärt: Ein Algorithmus ist eine Handlungsanweisung, die ein bestimmtes Problem lösen soll. Wer schon mal jemanden eingearbeitet hat, hat einen Algorithmus vorgegeben, zum Beispiel: Wenn ein Kunde dies will, machst du jene Schritte. Für einen Computer muss ein Algorithmus so detailliert beschreiben sein, dass nichts unklar bleibt. "Eine Prise Salz" in einem Kochrezept wäre nicht detailliert genug und müsste genauer definiert werden.

KNA: In vielen Debatten geht es um Gefahren von Algorithmen. Welche Chancen sehen Sie?

Zweig: In diesen Debatten geht es vor allen Dingen um das sogenannte maschinelle Lernen. Ein positives Beispiel sind Programme zur automatischen Übersetzung, die erst mit dieser neuen Technik wirklich möglich sind. Vorher hatten Informatiker versucht, Übersetzungsregeln für Computer zu formulieren - doch es fehlte die Vollständigkeit, um die Komplexität von Sprache und alle denkbaren Kontexte zu erfassen.

Heute werden Texte in verschiedenen Sprachen verglichen und statistisch ausgewertet, welche Wortgruppen wie übersetzt worden sind. Es geht also darum, aus vorhandenen menschlichen Übersetzungen bestimmte Muster abzuleiten. Damit ist ein Durchbruch gelungen.

KNA: Lässt sich dieses Beispiel übertragen?

Zweig: Bild- und Spracherkennung funktionieren nach demselben Muster des maschinellen Lernens. Beides wird unsere Welt revolutionieren.

Bei der Arbeit am Computer werden wir nicht mehr auf Maus und Tastatur angewiesen sein. Computer werden für uns bestimmte Dinge erkennen und identifizieren können. Das könnte zum Beispiel auch zur Inklusion von Menschen beitragen, die nicht mehr gut sehen können.

KNA: Verstehen Sie dennoch die Bedenken?

Zweig: Natürlich. Das maschinelle Lernen beruht auf folgender Idee: Wenn man zwei Dinge häufig genug zusammen gesehen hat, bedingt eines wahrscheinlich das andere. Das funktioniert oft gut genug. Aktuell ist die Industrie jedoch so begeistert vom maschinellen Lernen, dass sie hofft, damit auch auf das künftige Verhalten von Menschen schließen zu können - und da wird es kritisch.

KNA: Inwiefern?

Zweig: Wenn genau bekannt ist, welche Bücher eine Person bisher gekauft hat, lässt das relativ zuverlässige Rückschlüsse darauf zu, welches Buch sie als nächstes kaufen wird. Und falls der aus diesen Daten berechnete Vorschlag doch nicht passt, ist es nicht schlimm.

Anders sieht es aus, wenn es etwa um die Wahrscheinlichkeit eines Rückfalls für Kriminelle geht. In diesen Fällen gibt es wenige Datenpunkte - und im Nachhinein lässt sich kaum beurteilen, ob die Vorhersage stimmte. Wenn jemand, dessen Risiko als hoch eingestuft wird, ins Gefängnis kommt, ist die Situation nach der Haft fundamental anders als vorher. Es hätte sein können, dass der Betroffene ohne den Gefängnisaufenthalt nicht rückfällig geworden wäre.

Dazu kommt, dass Menschen ein bestimmtes Verhalten ja nicht nur aufgrund ihrer Eigenschaften zeigen, sondern auch etwa aufgrund sozialer Situationen - und die lassen sich schlecht messen. Daher sind Fragen, die das menschliche Schicksal betreffen, eher nicht für Prognosen durch maschinelles Lernen geeignet.

KNA: Sind diese Fragen bei den Kirchen präsent genug?

Zweig: Ein wichtiger Punkt ist, dass KI keine Gnade ausüben kann - die in unserem Menschenbild jedoch eine entscheidende Rolle spielt.

Christen glauben an die Gnade Gottes und sind ihrerseits aufgerufen, gnädig zu handeln. Algorithmen brauchen dagegen für jede Situation eine Regel, von der es keine Abweichung geben kann. Die Idee von Gnade ist, dass man keine Strafe bekommt, obwohl man sie verdient hätte - und die Frage ist, ob die Gesellschaft diese Formen von zweiten Chancen, möglicherweise auch unverdienten, nicht braucht.

Wenn es um das Menschenbild geht, sollten sich die Kirchen daher stärker zu Wort melden.

KNA: Manche Forscher befassen sich mit Maschinenethik, also etwa der Frage, ob Maschinen ein moralisches Dilemma lösen können. Was meinen Sie dazu?

Zweig: Der Titel meines Buchs - "Ein Algorithmus hat kein Taktgefühl" - deutet an, dass wir dem Computer die Feinheiten des menschlichen Zusammenlebens nur schwer und vielleicht gar nicht beibringen können.

Algorithmen des maschinellen Lernens finden Entscheidungsregeln im bisherigen Verhalten von Menschen - welche Regeln sie genau identifizieren, hängt von der eingesetzten Technik ab und den verwendeten Daten. Die gefundenen Regeln sind für uns Menschen nicht immer nachvollziehbar. Wir haben sie also nicht vollständig unter Kontrolle - aber wenn wir sie einsetzen, liegt es in unserer Verantwortung, dass sie ethisch vertretbar handeln. Denn Algorithmen sind keine Wesenheit, auch die des maschinellen Lernens nicht.

KNA: Was würden Sie sich für die aktuellen Debatten wünschen?

Zweig: Im Moment hecheln wir der KI hinterher, die uns von allen Seiten umgibt und sich teils als schwierig erwiesen hat. Ein Beispiel sind die Sozialen Medien, die bisweilen sehr asoziales Verhalten hervorrufen und über die sich falsche Nachrichten verbreiten.

Natürlich ist es wichtig, diese Probleme anzugehen. Aber bisher verwenden wir zu wenig Zeit darauf, uns zu fragen, wie wir die Welt mit KI gestalten und verbessern können. Ein Rollstuhlfahrer hat mir letztens gesagt, er würde seinem Rollstuhl manchmal gern sagen können: Ich bin müd - fahr mich heim. Das könnte KI leisten - und es ist eine positive Vision. Davon brauchen wir viel mehr.

Das Interview führte Paula Konersmann.


Quelle:
KNA