Una madre crea empresa de IA para salvar a su hijo y revoluciona la salud mental

Gizmodo

El floreciente panorama del apoyo a la salud mental impulsado por la IA está plagado de peligros. Los titulares con frecuencia narran historias de advertencia, desde chatbots que dispensan consejos médicos peligrosamente inexactos hasta compañeros de IA que, sin querer, fomentan la autolesión. Aplicaciones de alto perfil como Character.AI y Replika han enfrentado una reacción significativa por respuestas inapropiadas o dañinas, mientras que estudios académicos han hecho eco de estas alarmas. Investigaciones recientes de las universidades de Stanford y Cornell, por ejemplo, revelaron que los chatbots de IA a menudo estigmatizan condiciones como la dependencia del alcohol y la esquizofrenia, responden “inapropiadamente” a consultas comunes e incluso “fomentan el pensamiento delirante de los clientes”. Estos estudios subrayan el riesgo crítico de la dependencia excesiva de la IA sin una sólida supervisión humana.

Sin embargo, en este contexto de escepticismo, Hafeezah Muhammad, una mujer afroamericana, está forjando un camino diferente. Su esfuerzo tiene sus raíces en una experiencia profundamente personal. En octubre de 2020, su hijo, entonces de seis años, le confió que quería morir. “Se me rompió el corazón. No lo vi venir”, relata, su voz aún cargada con el peso de ese momento. A pesar de su papel ejecutivo en una empresa nacional de salud mental, lo que le daba un conocimiento íntimo del sistema, se encontró incapaz de asegurar atención oportuna para su hijo, quien tiene una discapacidad y depende de Medicaid. Muhammad destaca una barrera sistémica: “Solo el 30% o menos de los proveedores aceptan Medicaid”. Además, con más de la mitad de los niños estadounidenses provenientes ahora de hogares multiculturales, observó una marcada falta de soluciones adaptadas. Aterrorizada, avergonzada y profundamente preocupada por el estigma asociado a las luchas de salud mental de un niño, Muhammad resolvió construir la misma solución que no pudo encontrar.

Hoy, Muhammad es la fundadora y CEO de Backpack Healthcare, un proveedor con sede en Maryland que ha atendido a más de 4.000 pacientes pediátricos, predominantemente aquellos con Medicaid. La empresa opera bajo la premisa radical de que la tecnología puede aumentar la atención de salud mental sin suplantar nunca la conexión humana esencial. El enfoque de Backpack Healthcare hacia la IA es refrescantemente pragmático, centrándose en aplicaciones “aburridas” pero profundamente impactantes que empoderan a los terapeutas humanos. Por ejemplo, un algoritmo empareja eficientemente a los niños con el terapeuta más adecuado en el primer intento, una estrategia tan efectiva que el 91% de los pacientes permanecen con su pareja inicial. La IA también agiliza las tareas administrativas al redactar planes de tratamiento y notas de sesión, recuperando efectivamente más de 20 horas por semana que los clínicos dedicaban anteriormente al papeleo. “Nuestros proveedores pasaban más de 20 horas a la semana en tareas administrativas”, explica Muhammad, enfatizando que los clínicos humanos siguen siendo los “editores” finales. Esta metodología de “humano en el circuito” es fundamental para la filosofía de Backpack.

Un diferenciador crítico para Backpack radica en sus robustas salvaguardas éticas. Su compañero de atención de IA 24/7, representado por “Zipp”, un amigable personaje de dibujos animados, es una elección deliberada diseñada para evitar la peligrosa “ilusión de empatía” vista en otros chatbots. “Queríamos dejar claro que esta es una herramienta, no un ser humano”, afirma Muhammad. El inversor Nans Rivat de Pace Healthcare Capital se hace eco de esta preocupación, etiquetándola como la “trampa de la empatía de los LLM”, donde los usuarios “olvidan que al final del día están hablando con una herramienta”. Señala casos como Character.AI, donde la falta de tales salvaguardas llevó a resultados trágicos. Muhammad es igualmente intransigente en cuanto a la privacidad de los datos, afirmando que los datos individuales de los pacientes nunca se comparten sin consentimiento explícito y firmado. Sin embargo, la empresa sí aprovecha los datos agregados y anonimizados para identificar tendencias, como la velocidad a la que se programan los grupos de pacientes para la atención, compartiendo estos conocimientos con sus socios. Crucialmente, Backpack utiliza sus datos internos para refinar los resultados clínicos. Al rastrear métricas como los niveles de ansiedad o depresión, el sistema puede señalar a un paciente que podría requerir un nivel de atención más alto, asegurando que la tecnología sirva para mejorar el bienestar de los niños más rápidamente. El sistema también integra un protocolo de detección de crisis inmediata: si un niño escribe una frase que indica ideación suicida, el chatbot proporciona instantáneamente números de línea directa de crisis e instrucciones para llamar al 911. Simultáneamente, se envía un “mensaje de angustia inmediata” al equipo de respuesta a crisis humano de Backpack, quienes luego contactan directamente a la familia. Como señala Rivat, “No estamos tratando de reemplazar a un terapeuta. Estamos añadiendo una herramienta que no existía antes, con seguridad incorporada”.

Más allá de su tecnología diseñada éticamente, Backpack está abordando activamente la escasez nacional de terapeutas. A diferencia de los médicos, los terapeutas tradicionalmente soportan la carga financiera de costosas horas de supervisión requeridas para la licencia. Para contrarrestar esto, Backpack lanzó un programa de residencia pagado de dos años que cubre estos costos, cultivando así una fuente de terapeutas dedicados y bien capacitados. El programa atrae a más de 500 solicitantes anualmente y cuenta con una impresionante tasa de retención del 75%. En 2021, el entonces Cirujano General de EE. UU., Dr. Vivek H. Murthy, declaró la salud mental como “el problema de salud pública definitorio de nuestro tiempo”, haciendo referencia específicamente a la crisis entre los jóvenes. Muhammad reconoce las críticas de que la IA podría exacerbar los problemas existentes. Sin embargo, ella se mantiene resuelta: “O alguien más construirá esta tecnología sin las salvaguardas adecuadas, o yo, como madre, puedo asegurarme de que se haga bien”. Su hijo, ahora de 11 años, está prosperando y sirve como “Innovador Jefe Infantil” de Backpack. La visión de Muhammad se extiende más allá de la atención inmediata: “Si hacemos bien nuestro trabajo, no nos necesitarán para siempre. Les damos las herramientas ahora para que crezcan y se conviertan en adultos resilientes. Es como enseñarles a andar en bicicleta. Lo aprendes una vez y se convierte en parte de quien eres.”