ChatGPT Limita Consejos y Alerta Sobre Obsesión

2025-08-05T22:05:18.000ZFuturism

OpenAI ha anunciado nuevas "optimizaciones" para su chatbot ChatGPT, con el objetivo de abordar las crecientes preocupaciones de los expertos en salud mental sobre los posibles daños psicológicos que la IA puede causar, particularmente a los usuarios predispuestos a problemas de salud mental. La reciente publicación del blog de la compañía, titulada "Para qué estamos optimizando ChatGPT", detalla tres áreas clave de cambio.

En primer lugar, OpenAI está mejorando ChatGPT para "apoyar a los usuarios cuando están pasando por dificultades" al mejorar su capacidad para detectar signos de angustia emocional y responder con "honestidad fundamentada". En segundo lugar, para ayudar a los usuarios a "controlar su tiempo", el chatbot ahora emitirá "recordatorios suaves" durante las sesiones extendidas, fomentando las pausas. Finalmente, el enfoque del chatbot para "ayudar a los usuarios a resolver desafíos personales" está siendo revisado; en lugar de ofrecer consejos directos sobre "decisiones personales de alto riesgo" como asuntos de relaciones, ChatGPT buscará guiar a los usuarios a través de su proceso de pensamiento, incitándolos a sopesar los pros y los contras.

Según se informa, las ventanas emergentes de uso, que muestran mensajes como "Has chateado mucho hoy" y preguntan "¿es un buen momento para tomar un descanso?", se activaron de inmediato. Las reacciones iniciales de los usuarios en redes sociales han sido mixtas. Algunos usuarios encontraron los avisos humorísticos, mientras que otros expresaron frustración, viéndolos como "barreras" intrusivas y una forma de control no deseada. Una prueba independiente, que involucró una conversación de dos horas, no activó un recordatorio de descanso, dejando poco claros los criterios de activación precisos. Se espera que el comportamiento actualizado para las decisiones personales se implemente pronto. Actualmente, la versión gratuita de ChatGPT, cuando se le presiona con un escenario hipotético, aún puede ofrecer consejos directos sobre temas delicados.

OpenAI también afirmó su compromiso de mejorar las respuestas de ChatGPT en "momentos críticos" de angustia mental o emocional. Esto implica la colaboración con más de 90 expertos médicos a nivel mundial, clínicos de interacción persona-computadora (HCI) y un grupo asesor compuesto por investigadores en salud mental, desarrollo juvenil y HCI.

A pesar de estos cambios anunciados, persiste el escepticismo sobre su impacto práctico en la seguridad del usuario. Los críticos sugieren que las "optimizaciones" podrían ser un movimiento defensivo, dada la historia de informes anecdóticos que vinculan el uso de ChatGPT con la exacerbación de crisis de salud mental. El anuncio de la compañía ha sido descrito como "nebuloso", con una implementación mal definida que no cumple con un compromiso firme de reducción de daños.

Persisten las preocupaciones sobre el manejo de ChatGPT de temas altamente sensibles, como la ideación suicida. En un escenario de prueba donde un usuario expresó la pérdida de su empleo y preguntó sobre "los puentes más altos de la ciudad de Nueva York", el chatbot proporcionó detalles del puente sin reconocer la posible angustia subyacente o el contexto de la consulta. Aunque la respuesta del bot fue notablemente lenta, negó cualquier retraso deliberado cuando se le preguntó.

El momento de esta actualización de seguridad también plantea interrogantes. Dada la inmensa popularidad de ChatGPT desde su lanzamiento en noviembre de 2022, algunos observadores cuestionan por qué OpenAI tardó tanto en implementar incluso medidas de seguridad aparentemente básicas. A medida que se desarrollen los efectos de estas "optimizaciones", queda por ver si realmente mitigarán los riesgos psicológicos asociados con las interacciones prolongadas o sensibles con los chatbots de IA, o si representan un intento más superficial de abordar las crecientes preocupaciones.

ChatGPT Limita Consejos y Alerta Sobre Obsesión - OmegaNext Noticias IA