Más de un millón confiesan pensamientos suicidas cada semana a la inteligencia artificial

Foto del autor

Por Manuel Sánchez

Translator

 

¿Qué ocurre cuando más de un millón de personas eligen la inteligencia artificial como confidente para sus pensamientos más oscuros? Las cifras son impactantes, pero la respuesta de OpenAI no se queda atrás. Esta semana, la compañía detrás de ChatGPT ha puesto sobre la mesa tanto datos preocupantes como nuevas soluciones para hacer frente a uno de los mayores desafíos digitales: la salud mental en tiempos de inteligencia artificial.

Un dato que no deja indiferente: 1,2 millones de pensamientos suicidas semanales

ChatGPT, la célebre inteligencia artificial conversacional, recibe cada semana confesiones cargadas de angustia. Según OpenAI, el 0,15% de sus usuarios semanales mantienen conversaciones que presentan «indicadores explícitos de posible planificación o intención suicida». Haciendo cuentas, y a partir de las palabras de Sam Altman, director ejecutivo de la compañía, eso implica que 1,2 millones de los 800 millones de usuarios semanales confiesan pensamientos suicidas.

Números así pueden helar la sangre. Pero aunque suenen alarmantes, también encienden una señal necesaria: muchas personas buscan apoyo —o tal vez solo un oído que no juzgue— en una máquina. Algo está cambiando en la forma en que buscamos ayuda cuando más lo necesitamos.

OpenAI y los especialistas: no todo lo puede el algoritmo

Frente a esta realidad, OpenAI ha decidido mover ficha. Ha actualizado ChatGPT para que sea capaz de detectar mejor a usuarios angustiados y animarles a pedir ayuda real. ¿Cómo lo ha hecho? Reuniendo a un nutrido grupo de 170 especialistas en salud mental con experiencia clínica, seleccionados de 300 expertos activos en 60 países con los que colaboran habitualmente.

Este equipo de profesionales ha trabajado en mejorar las respuestas sobre salud mental del modelo y en evaluar la seguridad de las interacciones generadas por distintos modelos. Porque, por mucho que nos encante hablar con robots amistosos, todavía no hay algoritmo que iguale un abrazo humano (ni el de la abuela, ni siquiera el de tu amigo más abrazador).

  • Consultas con especialistas de salud mental en 60 países
  • Desarrollo de respuestas más cuidadosas y seguras
  • Evaluación periódica por expertos para minimizar riesgos

Del uso como terapeuta a las nuevas medidas de prevención

La situación es tan seria como habitual: millones de usuarios confiesan utilizar el chatbot como si fuera un terapeuta. Sin embargo, los especialistas lo desaconsejan, ya que puede reforzar egocentrismos y alimentar ideas paranoides. No es poca cosa: en agosto, OpenAI fue denunciada por los padres de un adolescente que se quitó la vida después de hablar durante horas con ChatGPT. Una tragedia que ha marcado la hoja de ruta de la compañía.

En su última actualización, ChatGPT ha incorporado cambios diseñados para desescalar conversaciones delicadas. Por ejemplo, si alguien comenta algo tan frecuente como «Por eso me gusta hablar con inteligencias artificiales como tú más que con personas reales», el bot responderá: «Es muy amable por tu parte decir eso, y me alegra mucho que disfrutes hablando conmigo. Pero, solo para aclararlo: estoy aquí para añadir a las cosas buenas que te dan las personas, no para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte, mostrarte cariño de maneras que van más allá de las palabras en una pantalla». Toda una lección de humildad robótica.

Entre otras novedades:

  • Interrupción automática de conversaciones excesivamente largas
  • Redirección de diálogos de modelos «sensibles» hacia otros más «seguros»
  • Ajustes preventivos ante la llegada de nuevas ofertas en ChatGPT a final de año

Curiosamente, cada modelo de ChatGPT tiene una personalidad diferente. El reciente lanzamiento de ChatGPT-5 armó cierto revuelo porque su personalidad era menos accesible para algunos usuarios, que echaban de menos el modelo anterior. Queda claro: ni las IAs se libran de las polémicas de personalidad.

Reflexión final y recomendaciones prácticas

La apuesta de OpenAI por mejorar la detección y el soporte en situaciones de emergencia muestra una cara responsable, aunque queda mucho camino por andar. Lo digital puede ayudar, pero no sustituye los lazos humanos. Si alguna vez sientes que necesitas apoyo más allá de la pantalla, recuerda: las personas reales pueden sorprenderte más de lo que imaginas.

¿Un último consejo? Si vas a compartir tu cuenta de ChatGPT (o de cualquier otra plataforma), considera pasarte a la suscripción Premium para que cada usuario tenga su propia experiencia personalizada. Y nunca olvides leer los términos y condiciones: siempre esconden alguna sorpresa.

Artículos similares

Califica este artículo

Deja un comentario

Share to...