Harvard busca evitar suicidios con dispositivos electrónicos y algoritmos

En un estudio, lograron la reserva de información más grande jamás recolectada sobre la vida cotidiana de las personas que sufren pensamientos destructivos.
jueves 06 de octubre de 2022
BVQ2JK7B2RD7HABMLXTODDKYEQ
BVQ2JK7B2RD7HABMLXTODDKYEQ

En marzo, Katelin Cruz salió de su última hospitalización psiquiátrica con una combinación conocida de sentimientos. Por un lado, se sintió aliviada al dejar la sala, donde los asistentes le quitaban los cordones de los zapatos y a veces la seguían hasta la ducha para asegurarse de que no se hiciera daño.

Sin embargo, su vida en el exterior era tan inestable como siempre, señaló en una entrevista, con una pila de cuentas sin pagar y sin un hogar permanente. Era fácil volver a tener pensamientos suicidas. Para los pacientes frágiles, las semanas posteriores a ser dados de alta de un centro psiquiátrico son un periodo notoriamente difícil, con una tasa de suicidio alrededor de quince veces superior a la tasa nacional, según un estudio.

No obstante, esta vez, Cruz, de 29 años, salió del hospital como parte de un vasto proyecto de investigación que intenta utilizar los avances de la inteligencia artificial para hacer algo que ha eludido a los psiquiatras durante siglos: predecir quién es probable que intente suicidarse y cuándo es probable que lo haga, para luego intervenir.

 

Katelin Cruz usa un telefono y una pulsera para monitorear sus tendencias suicidas
Katelin Cruz usa un telefono y una pulsera para monitorear sus tendencias suicidas 

  
En su muñeca llevaba una pulsera electrónica Fitbit, programada para registrar su sueño y su actividad física. En su celular, una aplicación recogía datos sobre su estado de ánimo, sus movimientos y sus interacciones sociales. Cada dispositivo proporcionaba un flujo continuo de información a un equipo de investigadores del piso doce del edificio William James, que alberga el departamento de Psicología de la Universidad de Harvard.

En el campo de la salud mental, pocas áreas nuevas generan tanta expectación como el aprendizaje automático, que utiliza algoritmos informáticos para predecir mejor el comportamiento humano. Al mismo tiempo, hay un interés creciente por los biosensores que pueden rastrear el estado de ánimo de una persona en tiempo real, teniendo en cuenta las elecciones musicales, las publicaciones en las redes sociales, la expresión facial y la expresión vocal.

Matthew K. Nock, psicólogo de Harvard y uno de los principales investigadores sobre el suicidio en el país, espera unir esas tecnologías en una especie de sistema de alerta temprana que podría utilizarse cuando un paciente en riesgo se da de alta del hospital.

Ofrece este ejemplo de cómo podría funcionar: el sensor informa que el sueño de una paciente está alterado, ella declara un estado de ánimo bajo en los cuestionarios y el GPS muestra que no sale de casa. Pero un acelerómetro en su teléfono muestra que se mueve mucho, lo que sugiere agitación. El algoritmo marca a la paciente. Suena una notificación en el tablero. Y, en el momento justo, un médico llama por teléfono o le envía un mensaje.

Hay muchas razones para dudar de que un algoritmo pueda alcanzar ese nivel de precisión. El suicidio es un evento tan poco común, incluso entre las personas con mayor riesgo, que cualquier esfuerzo por predecirlo dará como resultado falsos positivos, lo que obligará a intervenir a personas que tal vez no lo necesiten. Los falsos negativos podrían imponer responsabilidad legal a los médicos.

Los algoritmos requieren datos granulares a largo plazo de un gran número de personas, y es casi imposible observar un gran número de personas que se suicidan. Por último, los datos necesarios para ese tipo de monitoreo generan inquietud sobre la invasión de la privacidad de algunas de las personas más vulnerables de la sociedad.

   

Matthew Nock, profedor de psicología de Harvard y líder del estudio
Matthew Nock, profedor de psicología de Harvard y líder del estudio

 
Nock conoce todos esos argumentos, pero ha persistido, en parte por pura frustración. “Con el debido respeto a las personas que han estado haciendo este trabajo durante décadas, durante un siglo, no hemos aprendido mucho sobre cómo identificar a las personas en riesgo y cómo intervenir”, aseguró. “La tasa de suicidios ahora es la misma que era literalmente hace cien años. Entonces, si somos honestos, no estamos mejorando”.

Una manguera contra incendios de datos
En una tarde de agosto en el edificio William James, un científico de datos larguirucho llamado Adam Bear se sentó frente a un monitor en el laboratorio de Nock, vestido con pantalones cortos holgados y unas chanclas y, a mirar los gráficos en zigzag de los niveles de estrés de un sujeto en el transcurso de una semana

Cuando los estados de ánimo se representan como datos, surgen patrones, y el trabajo de Bear consiste en buscarlos. Pasó el verano analizando los días y las horas de 571 sujetos que, tras buscar atención médica por pensamientos suicidas, aceptaron un seguimiento continuo durante seis meses. Durante el periodo, dos se suicidaron, y entre 50 y cien lo intentaron.

En opinión de Nock, se trata de la reserva de información más grande jamás recolectada sobre la vida cotidiana de las personas que sufren pensamientos suicidas.

El equipo está más interesado en los días que preceden a los intentos de suicidio, lo que daría tiempo para intervenir. Ya han surgido algunas señales: aunque los impulsos suicidas no suelen cambiar en el periodo anterior a un intento, la capacidad de resistir esos impulsos sí parece disminuir. Algo sencillo —la privación del sueño— parece contribuir a ello.

Nock lleva buscando formas de estudiar a esos pacientes desde 1994, cuando tuvo una experiencia que lo impactó de manera profunda. Durante unas prácticas de licenciatura en el Reino Unido, le asignaron una unidad cerrada para pacientes violentos y autolesivos. Allí vio cosas que nunca había visto: los pacientes tenían cortes arriba y abajo de los brazos. Uno de ellos se arrancó el globo ocular. Un joven del que se hizo amigo, que parecía estar mejorando, apareció más tarde en el Támesis.

Otra sorpresa llegó cuando empezó a acribillar a los médicos con preguntas sobre el tratamiento de esos pacientes y se dio cuenta de lo poco que sabían: recuerda que le dijeron: “Les damos algunos medicamentos, hablamos con ellos y esperamos que mejoren”.

Quién era el autor de la masacre de la guardería de Tailandia


    
Una de las razones, concluyó, era que nunca había sido posible estudiar a un gran número de personas con ideas suicidas del mismo modo que podemos observar a los pacientes con enfermedades cardiacas o tuberculosis. “La psicología no ha avanzado tanto como otras ciencias porque en gran medida lo hemos hecho mal”, explicó. “No hemos ido en busca de un comportamiento importante en la naturaleza ni hemos salido a observarlo”.

Pero con la llegada de las aplicaciones telefónicas y los sensores portátiles, añadió, “tenemos datos de muchos canales diferentes y, cada vez más, contamos con la capacidad de analizar esos datos, y observar a las personas mientras viven”. Uno de los dilemas del diseño del estudio era qué hacer cuando los participantes expresaban un fuerte deseo de hacerse daño. Nock decidió que debían intervenir.

Diciéndole la verdad a una computadora
Eran alrededor de las 9 p. m., unas cuantas semanas después de haber comenzado el estudio de seis meses, cuando apareció la pregunta en el celular de Cruz: “¿En este momento, qué tan fuerte es tu deseo de suicidarte?”.

Sin detenerse a pensar, arrastró su dedo hasta el final de la barra: diez. Segundos después, se le pidió que eligiera entre dos afirmaciones: “Definitivamente no me voy a suicidar hoy” y “Definitivamente voy a suicidarme hoy”. Prefirió la segunda opción.

Quince minutos después, sonó su teléfono. Era un miembro del equipo de investigación que la llamaba. La mujer llamó al 911 y mantuvo a Cruz en la línea hasta que la policía llamó a su puerta y ella se desmayó. Más tarde, cuando recuperó el conocimiento, un equipo médico le estaba frotando el esternón, un procedimiento doloroso que se usa para revivir a las personas después de una sobredosis.

Cruz tiene un rostro pálido y angelical, así como cabello rizado y oscuro. Estaba estudiando la carrera de Enfermería cuando una cascada de crisis de salud mental hizo que su vida tomara otra dirección. Mantiene el interés de una estudiante sobresaliente por la ciencia, y bromea diciendo que la caja torácica de su camiseta es “totalmente anatómica”.

Desde el primer momento, se sintió intrigada por el ensayo, y respondió obediente seis veces al día, cuando las aplicaciones de su teléfono la encuestaron sobre sus pensamientos suicidas. Los avisos eran invasivos, pero también reconfortantes. “Sentí que no me ignoraban”, dijo. “Me quita algo de peso que alguien sepa cómo me siento”.

La noche de su intento, estaba sola en una habitación de hotel en Concord, Massachusetts. No tenía suficiente dinero para pasar otra noche allí, y sus pertenencias estaban amontonadas en bolsas de basura en el suelo. Estaba cansada, afirmó, “de sentir que no tenía a nadie ni nada”. En retrospectiva, Cruz dijo que pensaba que la tecnología —su anonimato y falta de juicio— hacía más fácil pedir ayuda.

“Creo que es casi más fácil decirle la verdad a una computadora”, agregó.

La semana pasada, cuando el ensayo clínico de seis meses llegó a su fin, Cruz llenó su cuestionario final con una punzada de tristeza. Echaría de menos el dólar que recibió por cada respuesta. Y extrañaría la sensación de que alguien la observaba, aunque fuera alguien sin rostro, a distancia, a través de un dispositivo.

“Honestamente, me hace sentir un poco más segura saber que alguien se preocupa lo suficiente como para leer esos datos todos los días, ¿sabes?”, comentó. “Estaré un poco triste cuando termine”.