Das soziale Netzwerk Facebook überwacht nun mit künstlicher Intelligenz die mentale Gesundheit seiner Mitglieder. Gibt ein Nutzer Signale von sich, die auf einen möglichen Suizid schließen lassen, wird der Verdächtige an das Community-Operations-Teams gemeldet. Diese Mitarbeiter entscheiden dann, ob sie Behörden einschalten oder dem Betroffenen mit Infos oder sonstigen Ratschlägen aus einer scheinbaren Notsituation helfen, schreibt das soziale Netzwerk in einem Blogeintrag.
Ein solches Selbstmord-Frühwarnsystem ist nicht nur aus Datenschutzgründen höchst problematisch. Auch medizinisch gesehen ist es sehr zweifelhaft, ob ein solches automatisiertes Vorgehen Selbstmordabsichten aufdecken und Suizide wirklich verhindern kann. In Europa, wo strenge Datenschutzkriterien gelten, setzt Facebook die auch in den USA umstrittene Technologie nicht ein.
Facebook selbst kommentiert, dass die proaktive Überwachung seiner Mitglieder auf ihren Gemütszustand mehr Nutzer stifte als Gefahren berge. Größter Kritikpunkt: Facebook legt nicht offen, wer alles Zugang zu den gesammelten Informationen habe und welche Kriterien das Internetunternehmen seinem Selbstmord-Frühwarnsystem zugrunde lege. Sind Nutzer per se schon deswegen gefährdet, wenn sie Wörter wie "traurig" verwenden, auf Fragen wie "geht es dir gut" nicht oder bestätigend reagieren oder nach einer regen Phase der Kommunikation auf Facebook längere Zeit pausieren? Das alles bleibt ungeklärt und kann auch missbräuchlich verwendet werden.
Bei der Herausgabe von Daten zu Mitgliedern, die sich das Leben genommen haben, ist Facebook übrigens sehr restriktiv. In einem Fall muss der Bundesgerichtshof über die Klage von Eltern eines verstobenen Mädchens entscheiden. Sie wollen Facebook gerichtlich dazu zwingen, die Chatprotokolle ihrer Tochter herauszugeben.