Ethikexperte Filipovic zum geplanten KI-Kodex des Vatikan

"Auch die beste künstliche Intelligenz ist dumm wie Knäckebrot"

Bis Freitag soll ein Vatikan-Workshop mit namhaften Experten aus aller Welt einen Ethik-Leitfaden zu künstlicher Intelligenz erarbeiten. Kann man Maschinen tatsächlich so etwas wie Moral beibringen?

 Kann man Maschinen tatsächlich so etwas wie Moral beibringen? / © Hauke-Christian Dittrich (dpa)
Kann man Maschinen tatsächlich so etwas wie Moral beibringen? / © Hauke-Christian Dittrich ( dpa )

KNA: Herr Filipovic, erklären Sie doch bitte mal, wieso das Thema künstliche Intelligenz für die katholische Kirche so bedeutsam ist?

Alexander Filipovic (Professor für Medienethik an der Hochschule für Philosophie München): Da die Kirche auch von dieser Welt ist, muss sie sich damit beschäftigen. Gerade aus sozialethischer Perspektive ist es wichtig, die Zeichen der Zeit nicht außer Acht zu lassen. Da gehören die neuen digitalen Techniken zweifellos dazu. Die Aufgabe besteht nun darin - wie es so schön heißt - solche Zeichen im Lichte des Evangeliums zu deuten. Es geht von möglichen Auswirkungen auf den Glauben bis hin zum Selbstverständnis des Menschen. Die Kirche sollte sich also unbedingt mit diesem Thema auseinandersetzen.

KNA: Der aktuelle Experten-Workshop im Vatikan soll einen Ethik-Kodex zu künstlicher Intelligenz erarbeiten. Was sind die größten Schwierigkeiten bei diesem Projekt?

Filipovic: Das größte Problem ist vermutlich, dass es schon haufenweise solcher KI-Codices gibt. Es liegen sogar Studien dazu vor. Das Ergebnis ist wenig überraschend: Eigentlich steht immer das Gleiche drin. Manchmal ist allenfalls die Reihenfolge der thematisierten Wertbegriffe wie Freiheit, Transparenz oder Gemeinwohl ein wenig anders. Ich würde daher nicht sagen, dass ein weiterer Kodex das wichtigste Ziel dieser Konferenz ist. Vielmehr geht es darum, die weltweite Bewegung zu unterstützen, die über einen verantwortungsvollen Umgang mit der machtvollen KI nachdenkt.

KNA: Wie kann es gelingen, die vielen widerstrebenden Interessen unter einen Hut zu bringen? China und die USA etwa haben sicherlich unterschiedliche Vorstellungen, wie ein verantwortungsvoller Umgang aussehen könnte.

Filipovic: Wenn man sich zunächst nur die Begriffe ansieht, die unsere KI-Systeme leiten sollen, sind die Unterschiede zwischen China, Europa und den USA gar nicht so groß. Das internationale Problem liegt darin, dass die Länder versuchen, eine Führerschaft in Sachen KI zu erlangen. Das zerstört das Miteinander. Jeder will Erster sein und bekämpft die anderen. Die Staaten und Blöcke bringen sich derzeit ganz massiv in Stellung. Diese geopolitischen Vorgänge im Rennen um die KI-Führerschaft sind eine sozialethisch wichtige Thematik.

KNA: In Ihrem Vortrag am Mittwoch im Vatikan haben Sie kritisiert, dass KI als Machtinstrument genutzt werde - sei es in Wirtschaft, Forschung oder für militärische Zwecke. Was kann man tun, um diesem ethisch bedenklichen Trend entgegenzuwirken?

Filipovic: Das ist alles nicht so einfach. Die gesamte Regulation von Technik ist unglaublich schwierig, weil eine große ökonomische Dynamik dahintersteht und natürlich viel Geld verdient werden kann. Je nachdem, wie man das Verhältnis von Politik und Wirtschaft sieht, kann es problematisch werden. In Deutschland gibt es ja ebenfalls bestimmte Parteien, die einer Regulierung von wirtschaftlichen Prozessen eher kritisch gegenüberstehen. Wichtig finde ich, jenseits von parteipolitischen Präferenzen, dass wir in dieser Frage eine Gestaltungsperspektive einnehmen.

KNA: Wie meinen Sie das?

Filipovic: Wir dürfen nicht einfach sagen: KI passiert mit uns. Sondern: Wir sind in der Lage, zu gestalten und zu bestimmen, wie künstliche Intelligenz eingesetzt werden kann. Das kann meines Erachtens nur politisch geschehen - nicht nur durch Gesetze, sondern etwa durch Anreizsysteme für die Entwicklung guter KI, die dem Menschen wirklich hilft.

Angesichts der geopolitischen Lage wird es allerdings schwierig, zu solchen Übereinkünften zu gelangen. Wichtig wäre es, zumindest in den besonders heiklen Fällen wie bei letalen autonomen Waffensystemen oder beim Schutz der Privatsphäre zu einheitlichen Regelungen zu kommen.

KNA: Noch eine praktische Frage: Kann man einer Maschine, die in den nächsten Jahren wichtige Aufgaben übernehmen wird, die bisher von Menschen erledigt werden, ethische Prinzipien einprogrammieren?

Filipovic: Man kann den Maschinen tatsächlich so etwas wie Moral einprogrammieren. Das können freilich nur Algorithmen sein. Dabei kann dann mal etwas herauskommen, das wir für moralisch relevant halten. Aber letztlich sind moralisch vertretbare Entscheidungen nur in einer Interaktion mit dem Menschen möglich.

Wenn zum Beispiel eine Diagnose-Maschine einen Tumor erkennen sollte, wird sie auf Basis vieler Daten wahrscheinlich zu guten Ergebnissen kommen. Doch das ist keine verantwortbare Entscheidung. Die muss ein Arzt treffen. Denn auch die beste künstliche Intelligenz ist im Grunde dumm wie Knäckebrot.

Das Interview führte Alexander Pitz.


Professor Alexander Filipović (Institut für Ethik und Sozialphilosophie (IES) der Hochschule für Philosophie in München) / © N.N. (privat)
Professor Alexander Filipović (Institut für Ethik und Sozialphilosophie (IES) der Hochschule für Philosophie in München) / © N.N. ( privat )
Quelle:
KNA
Mehr zum Thema