Laut Medienethiker brauchen Chatbots immer ethischen Input

"Ein moralisches Urteil ist nicht möglich"

Chatbots werden nach Ansicht des Medienethikers Alexander Filipovic in der journalistischen Anwendung immer eine ethische Begleitung benötigen. Ein Bot wie ChatGPT kenne Moral nur aus vorhandenen Texten und könne nur reproduzieren.

ChatGPT auf einem Smartphone / © Kaspars Grinvalds (shutterstock)
ChatGPT auf einem Smartphone / © Kaspars Grinvalds ( shutterstock )

"Von Moral weiß natürlich auch ChatGPT, aber nur, weil die Maschine Texte kennt, die Moral zum Gegenstand haben. Ein moralisches Urteil ist ihr nicht möglich", schreibt der Professor für Christliche Sozialethik an der Universität Wien in der März-Ausgabe der Freiburger "Herder-Korrespondenz".

Illustrationen zur Konversationsmethode CHATGPT. / © Ebru-Omer (shutterstock)
Illustrationen zur Konversationsmethode CHATGPT. / © Ebru-Omer ( shutterstock )

Filipovic unterstrich zudem, dass Künstliche-Intelligenz-Systeme nicht objektiv sein können, weil sie ihr Wissen aus einem vorhandenen, weltrepräsentierenden Fundus zögen. "Und auch dieses Wissen ist imprägniert von Interessen, Machtstrukturen und Ideologien. Eine KI wird daher immer die Verzerrungen reproduzieren, die in der tatsächlichen Welt, in der sie trainiert wird und aus der sie lernt, zwangsläufig existieren", schreibt er. Menschen könnten dagegen Leid und Ungerechtigkeit wahrnehmen und Ideologie aufspüren. Es sei sehr unsicher, dass diese Kreativität auch maschinell simuliert werden könnte.

Maschinen können keine Verantwortung übernehmen

Ein wesentlicher Unterschied zu Medienschaffenden sei, dass eine Maschine keine Verantwortung in einem anspruchsvollen Sinne übernehmen könne. "Journalisten rechnen dauernd damit, sich für ihr Tun rechtfertigen zu müssen. Warum die eine Geschichte und nicht eine andere? Warum das Foto aus dem Erdbebengebiet, das Leid und Tod direkt zeigt? Warum wurde die Nationalität des mutmaßlichen Verbrechers nicht genannt?", so der Ethiker.

ChatGPT gibt schnell schriftliche Antworten auf Fragen / © CHUAN CHUAN (shutterstock)
ChatGPT gibt schnell schriftliche Antworten auf Fragen / © CHUAN CHUAN ( shutterstock )

Die KI-Systeme würden die Medienlandschaft gewiss weiter stark transformieren. Wichtig sei es, bei den zentralen Fragen von Wahrheit, Moral, Ideologie und Verantwortung genau hinzuschauen. Eine Gefahr für den Journalismus sehe er nicht, betonte er erneut wie in einem Interview mit den KNA Mediendienst im Januar. "Vielleicht werden in naher Zukunft ein paar weniger Journalisten arbeiten, aber der Journalismus selbst wird in einer kommenden KI-Gesellschaft immer wichtiger werden", schreibt er.

Keine Gefahr für Journalismus

Man werde sich an automatisch erstellte Inhalte gewöhnen. "Aber wenn es um Politik, Rechte, Menschenwürde, Machtkritik, Gerechtigkeit und Verletzlichkeit geht, benötigen wir die natürliche, mit Emotionen und Engagement verbundene Intelligenz verantwortlicher Menschen - die gut mit KI-Systemen zusammenarbeiten können."

Der sogenannte Chatbot kann mithilfe von KI die unterschiedlichsten Anfragen in Textform beantworten. Derzeit wird vielfältig über Einsatzmöglichkeiten und Risiken des ChatGPT berichtet und diskutiert.

Quelle:
KNA