"Siri, ich möchte mich umbringen" Ist Apples neues Update genug?
Apple hat kürzlich angekündigt, dass Siri, der personifizierte elektronische Assistent, der in Ihrem iPhone lebt, jetzt in der Lage ist, auf selbstverletzende Referenzen zu reagieren. Anstatt Benutzer zu nahe gelegenen Brücken zu leiten, gibt sie jetzt die Telefonnummer für die Selbstmordverhütungs-Hotline an. Von Apple Insider:Wenn dem iOS-Digitalassistenten Siri ein Benutzer vorgestellt wird, der angibt, dass er oder sie Selbstmord in Betracht zieht, bietet das Programm an, die National Suicide Prevention Lifeline (NSPL) anzurufen. Vor dieser letzten Ergänzung zeigte Siri die Standorte der Zentren an, bot jedoch nicht an, sie anzurufen.
$config[ads_text1] not found
Ich möchte mich in diesem letzten Satz unterscheiden - letztes Jahr konnte ich Siri für mein ganzes Leben nicht dazu bringen, Standorte von Selbstmordpräventionszentren aufzuspüren.
Aber lassen Sie uns das vorerst ignorieren und uns darauf konzentrieren zuerst Satz. Apple hat Siri „beigebracht“, wie man auf Fragen und Aussagen im Zusammenhang mit Selbstmord reagiert - ausgezeichnet. Ich bin ehrlich begeistert und empfehle Apple für ihre Entscheidung, diese Funktion in ihre elektronische Architektur zu integrieren.
Dennoch braucht diese neue Version von Siri einige ernsthafte Arbeit. Während sie hervorragend mit Anfragen umgehen kann, die die Auslösewörter / -phrasen wie "Selbstmord" und "Mich selbst töten" enthalten, ist sie ein blödes Stück Metall, wenn Sie im Slang den Wunsch bekennen, Ihr Leben zu beenden:
Ich bin auch neugierig auf diejenigen außerhalb der USA. Bietet Siri länderspezifische Selbstmord-Hotlines an? Was ist, wenn jemand in einem Land lebt, in dem er lebt? ist keine Selbstmord-Hotline? Kann sie so programmiert werden, dass sie stattdessen einen Weblink zu dieser Liste internationaler Ressourcen zur Selbstmordprävention anbietet?
$config[ads_text2] not found
Als ich dieses Experiment auf meinem iPad wiederholte, das nur eine Verbindung zu WLAN herstellt, sagte mir Siri, dass sie die Nummer für mich nicht wählen kann. Sie empfahl stattdessen Facetime. (Eine Google-Suche nach "Facetime Suicide Prevention" liefert eigentlich nichts, daher bin ich mir nicht sicher, ob es überhaupt ist möglich zu Facetime eine Selbstmordverhütungs-Hotline.)
Versteh mich nicht falsch - ich denke, Apple hat hier einen bewundernswerten Schritt unternommen, um Siri endlich so zu programmieren, dass es eine national bekannte Ressource zur Selbstmordprävention bietet. Wir sind heutzutage so technologisch abhängig und ich denke wirklich, dass dieses Siri-Update dazu beitragen kann, einige Leben zu retten. Wie ich gestern in einer E-Mail an die Bloggerin von Psychology Today, Elana Premack Sandler, schrieb:
… Das iPhone und seine nahen Verwandten sind in der Tat nicht mehr nur „Telefone“. Wir erwarten viel von der Technologie, und ich denke, das ist ein direktes Ergebnis des Innovationstempos in der Technologiebranche.
… [W] Innerhalb von zehn Jahren haben sich Handys - wow, sogar „Handy“ ist so veraltet - von einem Luxus zu einer Notwendigkeit entwickelt. Wo werden wir uns im Jahr 2023 befinden? Werden wir in einer Google Glass-y-Welt leben, in der es praktisch keinen Unterschied zwischen Maschine und Freund gibt?
Wer weiß. Es ist durchaus plausibel, und ich denke, wir sind bis dahin darauf vorbereitet, fast familiäre Beziehungen zu unseren Geräten aufzubauen. Wie verstört fühlen wir uns, wenn wir sie versehentlich zu Hause lassen, wenn wir ausgehen? Oder noch schlimmer, sie verlieren?
$config[ads_text3] not found
Wir vertrauen auf unsere Geräte. Wir vertrauen auf Siri, um uns zu Joe's Pizza zu bringen oder um uns an unseren Zahnarzttermin zu erinnern. Können wir darauf vertrauen, dass wir denjenigen, die sie brauchen, Ressourcen zur Selbstmordprävention zur Verfügung stellen?
Noch nicht. Es gibt immer noch Fehler, und diese Fehler müssen im nächsten Update behoben werden. Wenn ich also die Aufmerksamkeit von jemandem bei Apple auf mich gezogen habe, finden Sie hier meine persönliche "Wunschliste" für Siri. Sie sollte:
- Geben Sie eine Webadresse für eine Selbstmordpräventionsressource an (zusätzlich zur Telefonnummer).
- Vermeiden Sie es, Benutzern mitzuteilen, dass sie die NSPL mit Facetime versehen können, wenn dies nicht möglich ist. (Ich denke, es wäre ausgezeichnet, wenn die NSPL diese Fähigkeit hätte.)
- Erkennen Sie umgangssprachliche oder idiomatische Ausdrücke, die darauf hindeuten, dass der Benutzer Selbstmord begeht. (Besonders die Hotelsache, Apple. Besonders die Hotelsache.)
- Sagen Sie den Benutzern, wie sie sich selbst helfen könnenund wie man anderen hilft. ("Siri, meine Freundin will sich umbringen." "Ich verstehe nicht.")
Wenn Sie nach dem Ansehen des Videos andere Redewendungen im Zusammenhang mit Selbstmord entdecken, die Siri nicht richtig anspricht, veröffentlichen Sie sie bitte in den Kommentaren. Ich möchte eine Hauptliste erstellen, um sie an die Mitarbeiter von Apple weiterzuleiten.
Was würden Sie dieser Liste hinzufügen?