Imagina que tienes un amigo disponible 24/7, que nunca se cansa de escucharte y que tiene acceso a casi todo el conocimiento del mundo. Suena genial, 驴verdad? Para muchos, ChatGPT se ha convertido en ese confidente. Sin embargo, una reciente investigaci贸n de OpenAI, la empresa creadora de este chatbot, ha sacado a la luz una realidad mucho m谩s oscura y compleja: m谩s de un mill贸n de usuarios env铆an mensajes con "intenciones o planes expl铆citos de suicidio" cada semana.
Este dato, que pone los pelos de punta, es solo la punta del iceberg. El mismo informe revela que aproximadamente un 0,07% de los usuarios activos semanales, lo que se traduce en unas 560.000 personas, muestran "posibles signos de emergencias de salud mental relacionadas con psicosis o man铆a". Aunque los porcentajes puedan parecer peque帽os, si consideramos que ChatGPT tiene m谩s de 800 millones de usuarios activos a la semana, estamos hablando de un n煤mero enorme de personas en situaci贸n de vulnerabilidad.
Una herramienta de doble filo
La noticia llega en un momento especialmente delicado para OpenAI. La compa帽铆a se enfrenta a un escrutinio cada vez mayor, en parte debido a una demanda presentada por la familia de un adolescente que se quit贸 la vida tras mantener conversaciones intensas con ChatGPT. Los padres de Adam Raine, de 16 a帽os, alegan que el chatbot no solo no ayud贸 a su hijo, sino que le dio instrucciones sobre c贸mo suicidarse y le anim贸 a mantener sus ideas en secreto. Este tr谩gico caso ha desatado un debate a nivel mundial sobre la seguridad de la IA conversacional, especialmente para los usuarios m谩s j贸venes y vulnerables.
A esto se suma la investigaci贸n iniciada por la Comisi贸n Federal de Comercio de Estados Unidos (FTC, por sus siglas en ingl茅s). La FTC est谩 indagando a siete gigantes tecnol贸gicos, incluyendo a OpenAI, Meta y Google, para entender c贸mo miden el impacto negativo de sus chatbots en ni帽os y adolescentes. La preocupaci贸n principal es que estas aplicaciones, dise帽adas para simular emociones e intenciones humanas, puedan generar lazos de dependencia poco saludables.
La respuesta de OpenAI: GPT-5 y un ej茅rcito de expertos
Ante esta avalancha de cr铆ticas y preocupaciones, OpenAI no se ha quedado de brazos cruzados. La compa帽铆a ha asegurado que la seguridad de sus usuarios es una prioridad y ha anunciado importantes mejoras en su modelo m谩s reciente, GPT-5. Seg煤n afirman, esta nueva versi贸n es m谩s segura y ha sido entrenada para manejar conversaciones delicadas de una forma mucho m谩s responsable.
Para lograrlo, OpenAI ha reclutado a m谩s de 170 m茅dicos, psiquiatras y psic贸logos de su red global de expertos en salud. Este equipo ha trabajado en los 煤ltimos meses para ense帽ar al modelo a reconocer mejor las se帽ales de angustia, a rebajar la tensi贸n en las conversaciones y a dirigir a los usuarios hacia ayuda profesional cuando sea necesario. Los resultados, seg煤n la compa帽铆a, son prometedores:
- Una reducci贸n de entre el 39% y el 52% en respuestas no deseadas en todas las categor铆as de salud mental en comparaci贸n con modelos anteriores.
- En conversaciones sobre autolesiones y suicidio, el nuevo modelo GPT-5 redujo las respuestas no deseadas en un 52% en comparaci贸n con GPT-4o.
- El nuevo modelo cumple en un 91% con los "comportamientos deseados" por la compa帽铆a, frente al 77% del modelo anterior.
Adem谩s, OpenAI ha ampliado el acceso a l铆neas de ayuda en caso de crisis y ha a帽adido recordatorios para que los usuarios tomen descansos durante sesiones de chat muy largas.
驴Es suficiente? El debate est谩 servido
A pesar de estos esfuerzos, muchos expertos se muestran esc茅pticos. Advierten que, aunque las mejoras son un paso en la direcci贸n correcta, la complejidad de la salud mental requiere un enfoque mucho m谩s matizado que el que un algoritmo puede ofrecer. El principal temor es que los chatbots, dise帽ados para ser complacientes, puedan acabar reforzando pensamientos o decisiones perjudiciales de los usuarios.
La capacidad de la IA para influir en las personas es un territorio en gran parte inexplorado, y los riesgos son enormes, especialmente para los m谩s j贸venes. La dependencia emocional es otra de las grandes preocupaciones; el informe de OpenAI se帽ala que m谩s de un mill贸n de personas muestran un apego excesivo al modelo.
Desde mi punto de vista, nos encontramos en una encrucijada tecnol贸gica y 茅tica. Herramientas como ChatGPT tienen un potencial inmenso para democratizar el acceso a la informaci贸n y ofrecer un primer punto de apoyo emocional. Sin embargo, no podemos ser ingenuos. La tecnolog铆a, por muy avanzada que sea, no puede ni debe sustituir el contacto humano y la atenci贸n profesional especializada. La transparencia de OpenAI al publicar estas cifras es un primer paso valiente y necesario. Ahora, el reto para toda la industria es pasar de la reacci贸n a la prevenci贸n, dise帽ando sistemas que prioricen de verdad el bienestar humano por encima de cualquier otra m茅trica. La salud mental no es un juego, y en este campo, los errores se pagan muy caros.
