Ethiker kritisieren Facebooks Vorgehen bei Suizidbekämpfung

Intimes Wissen

​Facebook engagiert sich bei der Suizidvorbeugung. Mit Hilfe künstlicher Intelligenz fahndet das Soziale Netzwerk nach Äußerungen, die auf Selbsttötung hindeuten könnten. Deutsche Wissenschaftler sehen das kritisch.

Autor/in:
Christoph Arens
Digitaler Nachlass / © Stephan Jansen (dpa)
Digitaler Nachlass / © Stephan Jansen ( dpa )

42 Minuten dauerte das Video, auf dem eine 12-jährige Amerikanerin 2017 ihren Suizid auf Facebook live streamte. Bereits am Tag zuvor soll sie in ihrem Online-Tagebuch ihren Stiefvater beschuldigt haben, sie geschlagen zu haben.

Rund 9.800 Menschen haben sich 2016 in Deutschland das Leben genommen, darunter 205 Jugendliche im Alter zwischen 15 und 20 Jahren. Menschen, die ihren Tod planen, kündigen ihn oft vorher an. Auch in Sozialen Netzwerken. Für Facebook ist das ein Image-Schaden.

Thema wird offensiv angesprochen

Seit längerem schon engagiert sich Facebook in der Prävention von Selbsttötungen. Nutzer werden aufgerufen, andere Nutzer zu melden, wenn sie Suizid-Absichten vermuten. Auf der Homepage wird das Thema offensiv angesprochen: "Durch Freundschaften auf der Plattform können sich Menschen in Not mit Personen verbinden, die sie unterstützen", heißt es dort. "Wenn du dich um ein Familienmitglied sorgst oder dich selbst mit Selbstmordgedanken quälst - wir möchten dir helfen."

Seit 2017 verwendet Facebook allerdings auch künstliche Intelligenz, um Suizide zu verhindern. Ein Algorithmus scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizidrisiko an einen Mitarbeiter. Dieser kann der betreffenden Person Hilfsangebote wie Telefonnummern oder Adressen von Ansprechpartnern zukommen lassen oder kann sich an Behörden oder die Polizei wenden. Facebook-Chef Mark Zuckerberg erklärte im November, die Warnungen des Algorithmus hätten weltweit zu 3.500 Einsätzen von Ersthelfern geführt.

Kritische Fragen

Das Engagement weckt zugleich Misstrauen. Handelt die Datenkrake wirklich so selbstlos? Wer kann die sensiblen Daten nutzen? Schließlich verrät Facebook nicht, nach welchen Kriterien gesucht wird. Und Zuckerberg hat schon angekündigt, dass man auch terroristische Propaganda mit solcher Technik ausfindig machen wolle. Kontrolle? Fehlanzeige.

Am Montag meldeten deutsche Ethikexperten und Wissenschaftler Bedenken an. Sie forderten mehr Datenschutz und wissenschaftliche Nachweise dafür, dass das Suizidpräventionsprogramm mehr nutzt als schadet. Aus Sicht des Paderborner Philosophen und Informatikers Tobias Matzner wird deutlich, welch intimes Wissen Firmen inzwischen erlangen können.

"Dass hier ein hehrer Zweck verfolgt wird, sollte nicht davon ablenken, dass dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten." Laut amerikanischen Medienberichten überprüfe Facebook nicht einmal, ob die Alarme zutreffend waren.

"Verletzung der Privatsphäre"

Ziemlich eindeutig äußerte sich die Vorsitzende des Europäischen Ethikrates (EGE), Christiane Woopen: Sie hielt Facebook vor, ohne Einwilligung der Kunden zu handeln und die Privatsphäre zu verletzen.

"Das ist ethisch" nicht vertretbar." Auf jeden Fall müsse sich das Unternehmen an die bewährten wissenschaftlichen Standards für Screeningverfahren halten. "Dazu müssen Daten vorliegen, die auch zu veröffentlichen sind", so die Professorin für Ethik und Theorie der Medizin an der Universität zu Köln.

Daten besonders schutzbedürftig

Die wissenschaftliche Leiterin der Stiftung Datenschutz in Leipzig, Anne Riechert, betonte, bei Informationen zu religiösen oder weltanschaulichen Überzeugungen, Sexualleben und Gesundheit handele es sich um Daten mit besonderer Schutzbedürftigkeit, deren Verarbeitung untersagt sei - gerade dann, wenn durch sie eine Notlage offengelegt werde, die die Betroffenen beschämen könnte.

Fehlalarm mit negativen Folgen

Matzner verwies auch auf die Fehleranfälligkeit: Das Unternehmen arbeite mit Algorithmen und suche eine Art allgemeines Muster für Suizidgefahr. "Damit können auch diverse Beiträge in den Fokus der Algorithmen geraten, die nichts mit Suizid zu tun haben."

Ein Fehlalarm könnte äußerst unangenehme Folgen haben: Plötzlich steht die Polizei vor der Haustür. Familie, Freunde und Nachbarn werden verunsichert. Auch Menschen, die mit Suizidgedanken kämpfen, können Angst bekommen, dass ihnen die Mündigkeit genommen wird und sie eingeliefert werden, warnen Experten. Der Algorithmus könnte Betroffene auch davon abhalten, Gefühle, Ängste und Sorgen überhaupt auf der Plattform zu teilen.


Quelle:
KNA
Mehr zum Thema