Facebook. Quelle: dpa/Sven Simon
dpa/Sven Simon
Audio: Inforadio | 17.02.2019 | Religion und Gesellschaft | Bild: dpa/Sven Simon

Experten warnen - Facebook-Algorithmus soll Selbstmordabsichten erkennen

Ein Facebook-Algorithmus untersucht Nutzerkommentare nach Hinweisen auf Suizid-Absichten. 3.500 mal habe Facebook bereits Maßnahmen ergriffen - zum Schutz Betroffener, heißt es. Allerdings warnen Experten vor Gefahren dieser Suizidprävention. Von Carmen Gräf

Im Jahr 2017 hat der Suizid einer zwölfjährigen US-Amerikanerin Teile der Facebook-Nutzergemeinde erschüttert - die Jugendliche streamte ihre Tat live in dem Netzwerk. Für Facebook bedeutete der Fall einen enormen Imageschaden. Zumal der Konzern in den Jahren davor ohnehin Vertrauen unter den Nutzern eingebüßt hatte.

Als Reaktion entwickelten Facebook-Programmierer einen neuen Algorithmus. Wer selbstmordgefährdet ist, sendet Signale. Er ändert sein Sozialverhalten, zieht sich zurück, macht eventuell Andeutungen. Deshalb hat das Unternehmen ein Programm entwickelt, der Suizid-Absichten erkennen und solche Taten verhindern soll.

Psychiatrische Diagnose in der Kommentarspalte

Seit zwei Jahren ist der Algorithmus im Einsatz, untersucht Beiträge und Kommentare auf verdächtige Hinweise. Dieses Programm kann Personen mit erhöhtem Suizidrisiko an einen Mitarbeiter melden, der Hilfsangebote, wie Telefonnummern oder Adressen von Ansprechpartnern an den Gefährdeten schicken kann. Oder an Behörden, wie etwa die Polizei. Allein durch die Warnungen dieses Algorithmus seien Ersthelfer weltweit 3.500 mal eingeschritten, erklärte Facebook-Chef Mark Zuckerberg Ende vorigen Jahres.

Der Paderborner Philosoph und Informatiker Tobias Matzner sieht dieses Programm allerdings skeptisch. Facebook unternehme den Versuch einer psychiatrischen Diagnose. Und eine solche müsse eigentlich unter strengen Auflagen evaluiert werden – was das Einverständnis der Betroffenen angehe, aber auch im Hinblick auf Nachvollziehbarkeit, Überprüfbarkeit und Unabhängigkeit.

Gesellschaftliche Stigmatisierung und große Verantwortung

Die Vorsitzende des Europäischen Ethikrates Christiane Woopen begrüßt es zwar, dass sich Facebook in der Suizidprävention engagiert, fordert aber, Facebook "muss die Qualitätskriterien für das Screening-Verfahren erfüllen und mitarbeiten, transparent sein, wissenschaftliche Studien vorlegen oder durchführen lassen, von unabhängigen Wissenschaftlern und natürlich mit Daten, die dann veröffentlicht werden".

Nichts davon tut Facebook bisher. Warnen und Leben retten – das klingt ethisch wunderbar. Aber wer die Diagnose "suizidgefährdet" stellt, übernimmt eine große Verantwortung. Selbsttötung und Lebensmüdigkeit - das ist immer noch mit einer großen gesellschaftlichen Stigmatisierung verbunden. 

Unerwünschte Risiken und Probleme

Deshalb müssen solche Diagnosen hierzulande strengen psychiatrischen Kriterien standhalten. Kann der Algorithmus diese Voraussetzungen erfüllen? Darüber ist nichts bekannt. Für Betroffene könnte das Vorgehen von Facebook heikle Folgen haben, warnt Christiane Woopen.

Wenn Menschen plötzlich erfahren, dass man sie für suizidgefährdet halte, könnten sich die Betroffenen stigmatisiert fühlen. Wenn Nachbarn sich über einen Polizeieinsatz nebenan wundern, oder durch das Bekanntwerden einer mutmaßlichen Suizidgefahr Nachteile am Arbeitsplatz entstünden, all das könnte unerwünschte Probleme verursachen. Auch Freunde könnten benachrichtigt und irritiert werden, sagt Woopen.

Keine Belege für 3.500 identifizierte Fälle

"Insofern muss man überhaupt nachweisen, in wie vielen Fällen das überhaupt zu einer erfolgreichen präventiven Maßnahme geführt hat."

Für die angeblich 3.500 identifizierten Fälle weltweit hat Facebook bisher keine Beweise vorgelegt. Der Konzern hüllt sich auch darüber in Schweigen, was mit den gesammelten Daten der Nutzer passiert. "Selbst wenn man davon ausgeht, dass die Daten sinnvoll genutzt werden könnten, finde ich, dass wir nicht abhängig sein sollten von dem guten Willen einer privatwirtschaftlichen Firma", meint Ethiker Tobias Matzner. Stattdessen müsse es klare Regeln geben, wem solche Daten unter welchen Bedingungen zur Verfügung stehen. "Das sollten im Idealfall öffentliche Einrichtungen sein und nicht irgendeine Firma, die morgen auch wieder damit aufhören kann."

Höhere Prämien bei Krankenversicherungen?

Information bedeutet Macht – erst recht Informationen über hochsensible Gesundheitsdaten. Diese sind durch europäische Gesetze geschützt. Deshalb darf Facebook den Algorithmus in der EU und auch in Deutschland bisher nicht anwenden – obwohl auch sich auch hierzulande jährlich 10.000 Menschen das Leben nehmen und Suizide unter Jugendlichen die häufigste Todesursache sind.

Die Daten könnten jedoch nicht nur in anderen Ländern Schaden anrichten, sondern auch in falsche Hände geraten, betont die Vorsitzende des Europäischen Ethikrates Christiane Woopen. International seien die Krankenversicherungen, Unfall- oder Lebensversicherungen unterschiedlich organisiert. Jedoch bestehe die Gefahr, dass Versicherungen an solche Daten kommen und höhere Prämien von Betroffenen verlangten. "Über solche Nebenwirkungen eines Screening-Verfahrens müsste man nachdenken und ihnen natürlich auch einen Riegel vorschieben", sagt Woopen.

Die EU hat dafür strengere Datenschutzrichtlinien als die USA. Und – so die Befürchtung der Ethiker: Es sei leicht vorstellbar, dass totalitäre Staaten Daten, die Selbsttötungsabsichten zeigen, ganz anders nutzen könnten. Nämlich um Menschen zu manipulieren oder zu erpressen.

Sendung: Inforadio, 17.02.2019, 7.44 Uhr

Beitrag von Carmen Gräf

Kommentar

Bitte füllen Sie die Felder aus, um einen Kommentar zu verfassen.

Kommentar verfassen
*Pflichtfelder

Bitte beachten Sie unsereNetiquette zum Kommentieren von Beiträgen sowie unsere Richtlinien zum Datenschutz.

5 Kommentare

  1. 5.

    Es wird interessant sein, das Verhalten diverser Politiker zu verfolgen, denen das Konzept er Eigenverantwortung zwar fremd und verhasst ist, die sich aber andererseits auch gegen jede Form der Überwachung und Kontrolle vehement wehren, welche zum vollumfänglichen Bemuttern freilich unabdingbar wären.
    Absehbar geht man - wie beim Kampf gegen "Hate Speech" - wieder den Umweg, andere (in diesem Fall: Facebook) zu diesen unpopulären und den Wählern schwer verkäuflichen Maßnahmen zu verpflichten.
    Denn jeder muss vor allem geschützt werden (auch vor freier Meinungsäußerung und sich selbst).
    Und da das ohne nachzuschauen nicht geht, müssen wieder die Lieblingssündenböcke der Linken zu Gärtnern gemacht werden:
    Die Konzerne.

  2. 4.

    Psychologen Psychater Therapeuten
    Das wird spannend!

  3. 3.

    Auf jeden Fall "rettet" FB selbst im besten Fall nicht mal einen Mikroteil derjenigen, welche erst durch FB-Aktivitäten anderer geschädigt wurden. Ich nenne hier nur mal Mobbingopfer. Gesperrt wird übrigens zuerst, wer von anderen Nutzern gemeldet wird. Ohne Denunziation wird man auch nicht "auffällig".
    Es gibt ja keine Standardkontrolle durch FB. Und die haben sich auch oft geweigert, problematische oder sogar diskriminierende Inhalte zu löschen, wenn die schon von den Leuten gemeldet wurde, die direkt dadurch geschädigt wurden, so bei Fotoverwechslungen usw.

  4. 2.

    Und vor allem unliebsame Nutzer entfernen, die womöglich selbstmordvideos veröffentlichen und Facebook als Grund allen Übels angeben. Was passiert denn, wenn einer auffällig wird? Wie muss ich mir das vorstellen? Bekommt er eine Mail... Sie sind ein Imagerisiko für unser Unternehmen, ihr Account musste daher leider gelöscht werden? Sehr hilfreich für die betroffene Person.

  5. 1.

    So kann man FB-Bespitzung natürlich auch verkaufen, als Lebensretter durch Bespitzelung. FB will sich damit einfach nur rechtfertigen und sonst nichts.

Das könnte Sie auch interessieren