Cosa sta facendo la tecnologia per aiutare la prevenzione del suicidio

Anche se non è possibile prevenire tutti i suicidi, ci sono molte cose che possono aiutare a ridurre il rischio. E alcune di queste cose sono a portata di smartphone.

Sistemi sanitari, aziende tecnologiche e istituti di ricerca stanno studiando come contribuire alla prevenzione dei suicidi. Stanno cercando di sfruttare la tecnologia in generale - e l'intelligenza artificiale (AI) in particolare - per cogliere i segnali più impercettibili del rischio di suicidio e allertare un essere umano affinché intervenga.

"La tecnologia, pur non essendo priva di sfide, offre incredibili opportunità", afferma Rebecca Bernert, PhD, direttrice e fondatrice del Suicide Prevention Research Laboratory della Stanford University School of Medicine di Palo Alto, CA.

Per esempio, Bernert sostiene che se l'intelligenza artificiale è in grado di segnalare i pazienti a rischio in base alle loro cartelle cliniche, i loro medici di base potrebbero essere più preparati ad aiutarli. Sebbene i professionisti della salute mentale siano appositamente formati, gli studi dimostrano che tra le persone che muoiono per suicidio, circa il 45% vede il proprio medico di base nell'ultimo mese di vita. Solo il 20% si rivolge a un professionista della salute mentale.

Ecco alcuni dei progressi tecnologici in fase di sviluppo o già in atto.

Indizi dalla voce

I ricercatori del Worcester Polytechnic Institute di Worcester, MA, stanno costruendo un programma basato sull'intelligenza artificiale chiamato EMU (Early Mental Health Uncovering) che estrae i dati da uno smartphone per valutare il rischio di suicidio dell'utente del telefono.

Questa tecnologia è ancora in fase di sviluppo. Potrebbe diventare parte di un'applicazione per la salute da scaricare sul proprio telefono, magari su suggerimento del proprio medico.

Dopo aver concesso tutte le autorizzazioni necessarie, l'applicazione impiegherebbe l'intelligenza artificiale per monitorare il rischio di suicidio attraverso il telefono. Tra le funzioni incluse c'è la possibilità di parlare all'analizzatore vocale dell'app, utilizzando un testo fornito o autorizzando l'app a registrare segmenti di telefonate. L'applicazione è in grado di rilevare le sottili caratteristiche della voce che possono indicare depressione o pensieri suicidi.

"Ci sono caratteristiche vocali note che gli esseri umani non sono in grado di rilevare, ma che l'intelligenza artificiale è in grado di individuare perché è stata addestrata a farlo su grandi serie di dati", afferma lo psicologo Edwin Boudreaux, PhD. È vicepresidente della ricerca presso il Dipartimento di Medicina d'urgenza della Facoltà di Medicina dell'UMass Chan.

"È in grado di prendere la voce e tutte le altre fonti di dati e di combinarle per fare una solida previsione sul vostro stato d'animo depresso e sulle vostre idee suicide", dice Boudreaux, che non ha alcuna partecipazione finanziaria nell'azienda che produce questa applicazione. "È come una biopsia telefonica".

I dati dello smartphone, con il permesso dell'utente, potrebbero essere utilizzati per inviare avvisi agli utenti stessi. Questo potrebbe spingerli a cercare aiuto o a rivedere il loro piano di sicurezza. O forse potrebbero allertare il fornitore di assistenza sanitaria della persona.

Attualmente le applicazioni non richiedono l'approvazione del governo per supportare le loro affermazioni, quindi se state usando un'applicazione relativa alla prevenzione del suicidio, parlatene con il vostro terapeuta, psichiatra o medico.

Condividere le competenze

Google lavora per offrire alle persone a rischio di suicidio risorse come la National Suicide Prevention Lifeline. Ha anche condiviso la sua esperienza di intelligenza artificiale con il Trevor Project, una linea telefonica LGBTQ per i suicidi, per aiutare l'organizzazione a identificare i chiamanti a più alto rischio e a fornire loro aiuto più rapidamente.

Quando una persona in crisi contatta il Trevor Project via SMS, chat o telefono, risponde a tre domande di ingresso prima di essere messa in contatto con il supporto alla crisi. Google.org Fellows, un programma di beneficenza gestito da Google, ha aiutato il Progetto Trevor a utilizzare i computer per identificare le parole nelle risposte alle domande di ingresso che erano collegate al rischio più elevato e imminente.

Quando le persone in crisi utilizzano alcune di queste parole chiave nel rispondere alle domande di ammissione del Trevor Project, la loro chiamata passa in testa alla coda di assistenza.

Una cultura della forza

Forse sapete già che i suicidi sono un rischio particolare tra i militari e gli agenti di polizia. E avrete sicuramente sentito parlare dei suicidi tra gli operatori sanitari durante la pandemia.

Ma c'è un altro settore con un alto tasso di suicidi: l'edilizia.

Secondo il CDC, i lavoratori edili hanno il doppio delle probabilità di morire per suicidio rispetto alle altre professioni e 5 volte più probabilità di morire per suicidio che per un infortunio sul lavoro. L'alto tasso di lesioni fisiche, il dolore cronico, l'instabilità del lavoro e l'isolamento sociale dovuto alle lunghe distanze percorse per raggiungere il posto di lavoro possono avere un ruolo importante.

JobSiteCare, un'azienda di teleassistenza pensata per i lavoratori edili, sta sperimentando una risposta high-tech al suicidio nel settore. L'azienda offre assistenza telemedica ai lavoratori edili infortunati nei cantieri attraverso tablet conservati in un armadietto nella roulotte medica del cantiere. Ora sta ampliando l'assistenza per includere la cura della salute mentale e la risposta alle crisi.

I lavoratori possono ottenere aiuto in pochi secondi attraverso il tablet nella roulotte. Hanno anche accesso a una linea telefonica diretta 24 ore su 24, 7 giorni su 7, e a un'assistenza sanitaria continua attraverso la teleassistenza.

"La telesalute è stata una delle grandi storie di successo della telemedicina", afferma Dan Carlin, medico, fondatore e CEO di JobSiteCare. "Nell'edilizia, dove il lavoro ti porta da un posto all'altro, la telemedicina ti seguirà ovunque tu vada".

App per il piano di sicurezza contro il suicidio

L'app Jaspr mira ad aiutare le persone dopo un tentativo di suicidio, a partire da quando sono ancora in ospedale. Ecco come funziona.

Un operatore sanitario inizia a utilizzare l'app con il paziente in ospedale. Insieme, elaborano un piano di sicurezza per prevenire un futuro tentativo di suicidio. Il piano di sicurezza è un documento che l'operatore sanitario sviluppa con il paziente per aiutarlo a gestire una futura crisi di salute mentale e i fattori di stress che di solito scatenano il pensiero suicida.

Il paziente scarica l'app "Home companion" di Jaspr. Può accedere al proprio piano di sicurezza, agli strumenti per gestire una crisi in base alle preferenze delineate nel piano di sicurezza, alle risorse di aiuto durante una crisi e ai video incoraggianti di persone reali che sono sopravvissute a un tentativo di suicidio o che hanno perso una persona cara a causa del suicidio.

E se l'intelligenza artificiale sbagliasse?

C'è sempre la possibilità che l'intelligenza artificiale giudichi male chi è a rischio di suicidio. L'intelligenza artificiale è buona quanto i dati che alimentano il suo algoritmo.

Un "falso positivo" significa che una persona viene identificata come a rischio, ma non lo è. In questo caso, ciò significherebbe un errore di valutazione. In questo caso, significherebbe che qualcuno è stato erroneamente indicato come a rischio di suicidio.

Con un "falso negativo", una persona a rischio non viene segnalata.

Secondo Boudreaux, il rischio di danni derivanti da falsi negativi e falsi positivi è troppo elevato per utilizzare l'IA per identificare il rischio di suicidio prima che i ricercatori siano sicuri che funzioni.

Egli osserva che Facebook ha utilizzato l'intelligenza artificiale per identificare gli utenti che potrebbero essere a rischio imminente di suicidio.

Meta, la società madre di Facebook, non ha risposto alla richiesta di commento del medico sull'uso dell'IA per identificare e affrontare il rischio di suicidio tra i suoi utenti.

Secondo il suo sito web, Facebook consente agli utenti di segnalare i post relativi, compresi i video di Facebook Live, che potrebbero indicare che una persona si trova in una crisi di suicidio. L'intelligenza artificiale analizza anche i post e, quando lo ritiene opportuno, mette in evidenza l'opzione per gli utenti di segnalare il post. Indipendentemente dal fatto che gli utenti segnalino o meno un post, l'intelligenza artificiale può anche analizzare e segnalare i post e i video live di Facebook. I membri dello staff di Facebook esaminano i post e i video segnalati dagli utenti o dall'IA e decidono come gestirli.

Possono contattare la persona che ha creato il post e consigliarle di rivolgersi a un amico o a una linea di assistenza in caso di crisi, come la National Suicide Prevention Lifeline, che questo mese ha lanciato il numero 988 a tre cifre. Gli utenti possono contattare le linee di crisi direttamente attraverso Facebook Messenger.

In alcuni casi, quando un post indica un rischio urgente, Facebook può contattare il dipartimento di polizia vicino all'utente di Facebook in potenziale crisi. Un agente di polizia viene quindi inviato a casa dell'utente per un controllo di benessere.

La piattaforma di social media TikTok, i cui rappresentanti hanno rifiutato di essere intervistati per questo articolo ma hanno fornito informazioni di base via e-mail, segue protocolli simili. Questi includono il collegamento degli utenti con le linee telefoniche di emergenza e la segnalazione di post urgenti alle forze dell'ordine. TikTok fornisce anche numeri di telefono verde e altre risorse per le crisi in risposta alle ricerche di suicidi sulla piattaforma.

Problemi di privacy

La possibilità che le piattaforme di social media contattino la polizia ha attirato le critiche di esperti di privacy e di salute mentale come Boudreaux.

"È un'idea terribile", afferma. "Facebook l'ha adottata senza che gli utenti sapessero che l'IA stava operando in background e quali sarebbero state le conseguenze se l'IA avesse identificato qualcosa. L'invio di un agente di polizia potrebbe solo aggravare la situazione, soprattutto se si è una minoranza. Oltre a essere imbarazzante o potenzialmente traumatizzante, scoraggia le persone dal condividere perché quando si condivide succedono cose brutte".

Secondo il Journal of Law and the Biosciences, i problemi di privacy sono il motivo per cui l'algoritmo che potrebbe inviare i post di Facebook alle forze dell'ordine è vietato nell'Unione Europea.

Le conseguenze per le persone falsamente identificate come ad alto rischio, spiega Boudreaux, dipendono dal modo in cui l'organizzazione si impegna con la persona presunta a rischio. Una chiamata potenzialmente non necessaria da parte di un operatore sanitario potrebbe non causare lo stesso danno di una visita non necessaria da parte della polizia.

Se voi o qualcuno che conoscete sta pensando al suicidio, potete contattare la National Suicide Prevention Lifeline. Negli Stati Uniti, a partire dal 16 luglio 2022, è possibile chiamare, inviare un messaggio o chattare al numero 988 per contattare la National Suicide Prevention Lifeline. È anche possibile chiamare la Lifeline al numero originale, 800-273-8255. L'aiuto è disponibile 24 ore su 24, 7 giorni su 7, in inglese e spagnolo.

 

 

 

Hot