Zuhause Online-Krankenhaus Selbstmord und Facebook AI

Selbstmord und Facebook AI

Inhaltsverzeichnis:

Anonim

Wenn eine Person durch Selbstmord stirbt, fragen sich diejenigen in ihrem Leben oft, was sie hätten tun können, um es zu verhindern.

Social-Media-Nutzer können es sogar bereuen, dass sie etwas beunruhigendes von der Person gepostet haben, aber nichts dagegen tun.

AdvertisementWerbung

Um zu helfen, hat Facebook angekündigt, dass es den Einsatz künstlicher Intelligenz (KI) erweitert, um herauszufinden, wann jemand Gedanken über Selbstmord oder Selbstverletzung auf der Social-Media-Website äußert.

Vor diesem Monat nutzte Facebook die Tools nur für einige Benutzer in den USA. Jetzt steht es den meisten der 2 Milliarden Nutzer der Website zur Verfügung, außer denen in der Europäischen Union, die strengere Datenschutz- und Internetgesetze haben.

Mark Zuckerberg, der CEO von Facebook, sagt, dass der Einsatz von KI eine positive Entwicklung ist.

Werbung

Kürzlich hat er auf seiner Facebook-Chronik veröffentlicht: "Allein im letzten Monat haben diese KI-Tools uns geholfen, schneller als 100 Mal mit Ersthelfern in Verbindung zu treten. "

Wie genau machen die Werkzeuge das?

AdvertisementAdvertisement

Facebook gibt keine detaillierten Informationen preis, aber es scheint, dass das Tool durch das Überfliegen von Posts oder Videos und das Markieren von Wörtern, Videos und Bildern, die auf eine Person hinweisen, funktioniert gefährdet für Selbstmord.

Facebook verwendet bereits AI in ähnlicher Weise, um Beiträge zu scannen und zu entfernen, die Kinderpornografie und andere anstößige Inhalte enthalten.

Ein Facebook-Vertreter sagte Healthline, dass die Suizidpräventions-Tools dabei helfen, Inhalte schneller zu erkennen. Die KI hilft auch bei der Priorisierung der Berichte und zeigt an, welche Fälle seriöser sind.

Anschließend überprüfen geschulte Mitglieder des Community-Operations-Teams von Facebook den Inhalt und bestimmen die Art der Hilfe, die dem Benutzer zur Verfügung gestellt wird.

Diese Mitglieder arbeiten rund um die Uhr auf der ganzen Welt und überprüfen sowohl Berichte von AI-Tools als auch von besorgten Facebook-Nutzern.

AdvertisementAdvertisement

Eine Art und Weise, in der das AI-Tool suizidale Tendenzen erkennt, besteht darin, Benutzer mit Fragen wie "Sind Sie OK?" Zu fragen. " "Kann ich helfen? "Und" Brauchst du Hilfe? "

Das Community Operations Team von Facebook hat die Aufgabe, Inhalte zu überprüfen, die als gewalttätig oder beunruhigend gemeldet wurden.

Im Mai kündigte Facebook an, dass es dem Operationsteam, das zu dieser Zeit 4 500 Mitarbeiter hatte, weitere 3000 Arbeiter hinzufügen würde.

Werbung

Laut der Facebook-Sprecherin hilft die Technologie, Inhalte und Videos, die auf Facebook gepostet werden, oft schneller zu finden, als ein Freund oder Familienmitglieder das Material melden können.

Wenn diese erkannt werden, wird der Facebook-Nutzer mit Facebook Live-Chat-Unterstützung von Krisenunterstützungsorganisationen über Messenger in Verbindung gebracht und kann in Echtzeit chatten.

AdvertisementAdvertisement

Advocacy-Anwälte an Bord

Bei der Erstellung von KI zur Suizidprävention arbeitet Facebook mit psychiatrischen Organisationen zusammen, einschließlich Save. org, National Suicide Prevention Lebenslinie "1-800-273-TALK (8255)" und Forefront Suicide Prevention.

Daniel J. Reidenberg, PsyD, Geschäftsführer von Save. org sagt, er sei begeistert, dass Facebook Fortschritte mache, um die Bemühungen zur Suizidprävention in bisher nicht gekannter Weise voranzutreiben.

"Wenn wir über die letzten 50 oder 60 Jahre nachdenken - ob Sie über Fortschritte in der Medikation oder Behandlung von Selbstmord und psychischer Gesundheit sprechen - haben wir keine Reduktionen gesehen oder gesehen, dass Selbstmord wegen dieser Dinge fallen gelassen wurde, so die Idee dass die Technologie vielleicht helfen kann, ist die beste Gelegenheit, die wir jetzt haben, um Leben zu retten ", sagte Reidenberg gegenüber Healthline.

Werbung

Obwohl er feststellt, dass die KI-Tools möglicherweise nicht vollständig entwickelt sind und möglicherweise falsche Positive von gefährdeten Personen enthalten, sagt er, dass es sich um eine hochmoderne Intervention zur Suizidprävention handelt, die Zeit braucht, um sie zu verstehen Wirksamkeit.

"Bevor AI kam, gab es falsche Positive von Leuten, die Dinge an Facebook berichteten, die dachten, ein Freund könnte selbstmörderisch sein. AI beschleunigt nur den Prozess, um einige dieser falsch positiven Ergebnisse zu eliminieren und wirklich diejenigen aufzugreifen, die wirklich gefährdet sind ", sagte Reidenberg.

AdvertisementWerbung

Er fügt hinzu, dass Menschen in sozialen Medien Anzeichen suizidaler Tendenzen zeigen, und dass dies weder eine gute noch eine schlechte Sache sei.

"Social Media ist genau dort, wo Menschen heute ihr Leben leben. Vor Jahren lebten sie draußen im Park oder in der Pause oder schrieben einander Notizen, vielleicht auch am Telefon. Da immer mehr Menschen ihr Leben in sozialen Medien leben, teilen sie sowohl die glücklichen Momente als auch die Herausforderungen, denen sie gegenüberstehen ", sagte er.

Die Änderung, fügt er hinzu, erlaubt es Menschen, Hunderte und Hunderte von Menschen gleichzeitig zu erreichen.

Reidenberg sagt, wenn Sie jemanden in sozialen Netzwerken bemerken, der depressiv oder gefährdet ist, sich selbst zu verletzen, wenden Sie sich mit einer Nachricht, einem Text oder einem Anruf an ihn, wenn Sie enge Freunde sind. Facebook bietet sogar vorgefüllte Texte, um das Gespräch zu erleichtern.

Wenn Sie sich nicht wohl fühlen, schlägt Reidenberg vor, die Berichtsfunktion auf Facebook zu verwenden.

"Es ist eine einfache und schnelle Sache zu tun. Die Technologie kann das nicht alleine schaffen. Wir brauchen Leute, die beteiligt sein müssen. Etwas nicht zu tun ist das Schlimmste, was passieren kann ", sagte er.

Was ist mit Datenschutzproblemen?

Abgesehen von der guten Absicht ist es schwer, die Verletzung der Privatsphäre nicht in Betracht zu ziehen.

Charles Lee Mudd Jr., Datenschutzanwalt und Direktor von Mudd Law, sagt, dass Facebook-Scans nach Keywords nicht als Verletzung der Privatsphäre betrachtet werden sollten, wenn sie im Voraus bekannt gegeben werden.

"Solange Facebook bekannt gibt, dass es den Inhalt überprüft, sehe ich keine wirklichen Bedenken bezüglich der Privatsphäre", sagte Mudd Healthline. "Man sollte verstehen, dass alles, was irgendwo im Internet veröffentlicht wird, auch über E-Mail - privat oder nicht - oder soziale Medien, seinen Weg zu unbeabsichtigten Empfängern findet.Zumindest wenn Facebook uns mitteilt, dass es Roboter gibt, die unsere Mails lesen - oder zumindest nach Stichwörtern oder Sätzen suchen - können wir unser Verhalten anpassen, wenn es nötig sein sollte. "

Auch wenn Facebook rechtlich klar ist, ob es ethisch handelt, steht zur Debatte.

Keshav Malani, Mitbegründer von Powr of You, einem Unternehmen, das Menschen dabei hilft, Geld aus ihrer digitalen Präsenz zu machen, sagt, unabhängig von den Absichten von Facebook, sollte jeder frei entscheiden können, wie seine persönlichen Daten verwendet werden.

"Oder es ist ein rutschiger Abhang bei der als" gut "oder" schlecht "bezeichneten Verwendung der persönlichen Informationen, die wir auf Plattformen wie Facebook teilen. Absichten sind auch nicht genug, weil Verzerrungen in Daten zu ungültigen oder schädlichen Behauptungen führen können, selbst wenn es sich nur um grundlegende historische Korrelationsanalysen handelt ", sagte Malani gegenüber Healthline.

Er fügt hinzu, dass AI nur so gut ist wie die Daten, die es als Eingabe erhält.

"Einzelne Plattformen wie Facebook versuchen zu glauben, dass sie Sie gut genug kennen, um Rückschlüsse auf Ihr Wohlbefinden zu ziehen, wäre naiv. Facebook oder irgendein anderes Medienunternehmen deckt nur einen kleinen Teil unseres Lebens ab und malt oft ein Bild, das wir teilen möchten. Daher sollte man mit äußerster Vorsicht Schlussfolgerungen aus solch einer begrenzten und möglicherweise verzerrten Datenquelle ziehen. " er sagte.

Laut Reidenberg sollten die Leute keine Angst vor Facebook haben, wenn sie AI benutzen.

"Das ist nicht Facebook, das Leute anlockt oder in die Geschäfte der Leute einsteigt", sagte er. "Es ist Technologie und Menschen zu versuchen, das Leben der Menschen zu retten", sagte er. "Vertrauen Sie mir, wenn Sie einen geliebten Menschen in der Krise haben, möchten Sie, dass alles für sie getan wird, ob Sie in einer Notaufnahme oder online sind. "

Tatsächlich hofft er, dass mehr Technologie bei Menschen in der Krise eingreifen kann.

"Wenn sich jemand in einer Krise befindet, gehen Optionen und Alternativen von ihnen weg. Sie konzentrieren sich sehr auf das, was in diesem Moment passiert, und sie haben nicht die Werkzeuge, um sie durchzubringen ", sagte er.

Anytime-Technologie kann helfen, den Menschen mehr Optionen zu geben, sagt Reidenberg, je weniger sie in der Krise sind. Er würde gerne sehen, dass Technologie mehr Möglichkeiten schafft, gefährdete Menschen zu identifizieren, bevor sie zum Beispiel für Depressionen gefährdet sind.

Zum Beispiel sagt er: Wenn wir mehr deprimiert sind, dass wir weniger interagieren, mehr isolieren, mehr zurückziehen, weniger Energie haben und anders reden und schreiben, dann könnte Programmiertechnologie, um diese Veränderungen zu bemerken, von Vorteil sein.

"Nehmen wir an, Sie sind ein regelmäßiges Plakat auf Facebook, aber dann werden Sie im Leben immer depressiver und Ihre Aktivität fällt langsam ab. Dann beginnst du Bilder auf Instagram von einem sehr traurigen oder einem düsteren Tag draußen zu posten. Wenn wir basierend auf Ihrem Online-Verhalten Technologie dazu bringen können, das, was Ihnen in Ihrem Leben passiert, zu erfassen, können wir Ihnen Dinge wie Ressourcen oder Unterstützung anbieten und vielleicht können wir sie umdrehen ", sagte Reidenberg.

Zuckerberg teilte eine ähnliche Meinung in seinem Beitrag, in Anspielung auf zukünftige Pläne, AI anderweitig zu verwenden.

"Wir können noch viel mehr tun, um dies weiter zu verbessern", schrieb er. "In der Zukunft wird KI in der Lage sein, mehr von den subtilen Nuancen der Sprache zu verstehen, und wird in der Lage sein, verschiedene Probleme jenseits des Selbstmordes zu identifizieren, einschließlich der schnellen Entdeckung von mehr Arten von Mobbing und Hass. "