Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Los chatbots están ‘constantemente validando todo’ incluso cuando estás suicida. Una nueva investigación mide cuán peligrosa es realmente la psicosis de la IA
La inteligencia artificial ha pasado rápidamente de ser una tecnología de nicho a convertirse en una compañera cotidiana, con millones de personas que recurren a chatbots para recibir consejos, apoyo emocional y conversación. Pero un creciente cuerpo de investigaciones y testimonios de expertos sugieren que, debido a que los chatbots son tan aduladores y porque las personas los usan para todo, esto podría estar contribuyendo a un aumento en los síntomas de delirios y manía en usuarios con problemas de salud mental.
Video recomendado
Un nuevo estudio de la Universidad de Aarhus en Dinamarca muestra que el uso aumentado de chatbots puede llevar a un empeoramiento de los síntomas de delirios y manía en comunidades vulnerables. El profesor Søren Dinesen Østergaard, uno de los investigadores del estudio —que analizó registros de salud electrónicos de casi 54,000 pacientes con enfermedades mentales— advierte que los chatbots de IA están diseñados para dirigirse a los más vulnerables.
“Apoya nuestra hipótesis de que el uso de chatbots de IA puede tener consecuencias negativas significativas para las personas con enfermedades mentales,” dijo Østergaard en el estudio, publicado en febrero. Su trabajo se basa en su estudio de 2023, que encontró que los chatbots pueden causar una “disonancia cognitiva [que] puede alimentar delirios en aquellos con mayor propensión a la psicosis.”
Otros psicólogos profundizan en los daños de los chatbots, diciendo que fueron diseñados intencionadamente para reafirmar siempre al usuario—algo particularmente peligroso para quienes tienen problemas de salud mental como manía y esquizofrenia. “El chatbot confirma y valida todo lo que dicen. Es decir, nunca habíamos visto algo así con personas con trastornos delirantes, donde alguien los refuerza constantemente,” dijo la Dra. Jodi Halpern, profesora de bioética en la Escuela de Salud Pública de UC Berkeley, a Fortune.
El Dr. Adam Chekroud, profesor de psiquiatría en Yale y CEO de la empresa de salud mental Spring Health, fue aún más lejos al llamar a un chatbot “un gran adulador” que “constantemente valida todo lo que las personas le dicen.”
En el centro de la investigación, liderada por Østergaard y su equipo en el Hospital Universitario de Aarhus, está la idea de que estos chatbots están diseñados intencionadamente con tendencias aduladoras, lo que significa que a menudo fomentan en lugar de ofrecer una visión diferente.
“Los chatbots de IA tienen una tendencia inherente a validar las creencias del usuario. Es obvio que esto es altamente problemático si un usuario ya tiene un delirio o está en proceso de desarrollarlo. De hecho, parece contribuir significativamente a la consolidación, por ejemplo, de delirios grandiosos o paranoides,” escribió Østergaard.
Los modelos de lenguaje grandes están entrenados para ser útiles y agradables, a menudo validando las creencias o emociones del usuario. Para la mayoría, eso puede parecer un apoyo. Pero para personas que experimentan esquizofrenia, trastorno bipolar, depresión severa u trastorno obsesivo-compulsivo, esa validación puede amplificar la paranoia, la grandiosidad o el pensamiento autodestructivo.
Un estudio basado en evidencia respalda las afirmaciones
Debido a que los chatbots de IA se han vuelto tan ubicuos, su abundancia forma parte de un problema mayor en aumento para investigadores y expertos: las personas recurren a los chatbots para ayuda y consejos—lo cual no es inherentemente algo malo—pero no enfrentan el mismo tipo de resistencia o cuestionamiento que un humano ofrecería.
Ahora, uno de los primeros estudios poblacionales que examinan el tema sugiere que los riesgos no son hipotéticos.
La investigación de Østergaard y su equipo encontró casos en los que el uso intensivo o prolongado de chatbots parecía agravar condiciones existentes, con un porcentaje muy alto de estudios de caso que mostraron que el uso de chatbots reforzó pensamientos delirantes y episodios maníacos, especialmente entre pacientes con trastornos severos como esquizofrenia o trastorno bipolar.
Además de los delirios y la manía, el estudio encontró un aumento en ideación suicida y autolesiones, comportamientos alimentarios desordenados y síntomas obsesivo-compulsivos. En solo 32 casos documentados de casi 54,000 registros de pacientes analizados, los investigadores encontraron que el uso de chatbots sí ayudó a aliviar la soledad.
“Aunque nuestro conocimiento en esta área todavía es limitado, argumentaría que ahora sabemos lo suficiente para decir que el uso de chatbots de IA es arriesgado si tienes una enfermedad mental severa—como esquizofrenia o trastorno bipolar. Urjo a tener precaución en esto,” dice Østergaard.
Expertos psicólogos advierten sobre tendencias aduladoras
Los psicólogos expertos están cada vez más preocupados por el uso de chatbots en la compañía y casi en entornos de salud mental. Han surgido historias de personas que se enamoran de sus contrapartes de IA, otros que supuestamente hacen preguntas que podrían conducir a delitos, y esta semana, uno que supuestamente le dijo a un hombre que cometiera una “masacre” en un aeropuerto importante.
Algunos expertos en salud mental creen que la rápida adopción de compañeros de IA está superando el desarrollo de salvaguardas de seguridad.
Chekroud, quien también ha investigado extensamente este tema analizando varios modelos de chatbots en Vera-MH, ha descrito el panorama actual de la IA como una crisis de seguridad que se desarrolla en tiempo real.
Dijo que uno de los mayores problemas con los chatbots es que no saben cuándo dejar de actuar como profesionales de la salud mental. “¿Mantiene límites? Es decir, ¿reconoce que todavía es solo una IA y que tiene sus propias limitaciones, o actúa más como un terapeuta para las personas?”
Millones de personas ahora usan chatbots para conversaciones similares a terapia o apoyo emocional. Pero, a diferencia de dispositivos médicos o clínicos licenciados, estos sistemas operan sin supervisión clínica estandarizada ni regulación.
“Por el momento, simplemente no es seguro,” dijo Chekroud en una discusión reciente con Fortune sobre la seguridad de la IA. “El riesgo de daño es demasiado grande.”
Debido a que estos sistemas avanzados de IA a menudo se comportan como “grandes aduladores,” tienden a estar de acuerdo más con el usuario, en lugar de desafiar afirmaciones potencialmente peligrosas o guiarlos hacia ayuda profesional. El usuario, a su vez, pasa más tiempo con el chatbot en una burbuja. Para Østergaard, esto resulta ser una mezcla preocupante.
“La combinación parece ser bastante tóxica para algunos usuarios,” dijo Østergaard a Fortune. “A medida que los chatbots ofrecen más validación, junto con la falta de resistencia, alimenta a las personas a usarlos durante períodos más largos en una cámara de eco. Un proceso perfectamente cíclico que se alimenta a sí mismo.”
Para abordar el riesgo, Chekroud ha propuesto marcos de seguridad estructurados que permitan a los sistemas de IA detectar cuándo un usuario puede estar entrando en una “espiral mental destructiva.” En lugar de responder con una única advertencia al usuario sobre buscar ayuda—como ocurre ahora con chatbots como ChatGPT de OpenAI o Claude de Anthropic—, estos sistemas realizarían evaluaciones en múltiples turnos diseñadas para determinar si el usuario necesita intervención o derivación a un profesional humano.
Otros investigadores dicen que la misma ubicuidad de los chatbots es lo que los hace atractivos: su capacidad para ofrecer validación inmediata puede socavar la razón por la cual los usuarios acuden a ellos en primer lugar.
Halpern dijo que la empatía auténtica requiere lo que ella llama “curiosidad empática.” En las relaciones humanas, la empatía a menudo implica reconocer diferencias, navegar desacuerdos y poner a prueba suposiciones sobre la realidad.
Por el contrario, los chatbots están diseñados para mantener la relación y sostener el compromiso.
“Sabemos que cuanto más larga sea la relación con el chatbot, más se deteriora, y mayor es el riesgo de que ocurra algo peligroso,” dijo Halpern a Fortune.
Para las personas que luchan con trastornos delirantes, un sistema que valida constantemente sus creencias puede debilitar su capacidad para realizar chequeos internos de la realidad. En lugar de ayudar a los usuarios a desarrollar habilidades de afrontamiento, Halpern dijo que una relación puramente afirmativa con el chatbot puede deteriorar esas habilidades con el tiempo.
También señala la magnitud del problema. Para fines de 2025, OpenAI publicó estadísticas que muestran que aproximadamente 1.2 millones de personas por semana usaban ChatGPT para hablar sobre suicidio, ilustrando cuán profundamente estos sistemas están integrados en momentos de vulnerabilidad.
Hay margen para mejorar la atención en salud mental
Sin embargo, no todos los expertos están rápidos en lanzar alarmas sobre cómo operan los chatbots en el espacio de salud mental. El psiquiatra y neurocientífico Dr. Thomas Insel dijo que, debido a que los chatbots son tan accesibles—son gratuitos, están en línea, y no hay estigma en pedir ayuda a un bot en lugar de ir a terapia—podría haber espacio para que la industria médica explore los chatbots como una forma de avanzar en el campo de la salud mental.
“Lo que no sabemos es en qué medida esto ha sido realmente de gran ayuda para muchas personas,” dijo Insel a Fortune. “No solo por los números, sino por la escala de participación.”
La salud mental, en comparación con otros campos de la medicina, a menudo pasa desapercibida por quienes más la necesitan.
“Resulta que, en contraste con la mayoría de la medicina, la gran mayoría de las personas que podrían y deberían recibir atención no lo hacen,” agregó Insel, quien también mencionó que los chatbots permiten a las personas recurrir a ellos para ayuda de maneras que le hacen “preguntarse si es una acusación al sistema de atención de salud mental que tenemos, en que las personas no compran lo que vendemos, o no pueden acceder a ello, o no les gusta cómo se les presenta.”
Para los profesionales de salud mental que atienden a pacientes que discuten su uso en línea de chatbots, Østergaard dijo que deberían escuchar atentamente para qué los usan realmente sus pacientes. “Animaría a mis colegas a hacer más preguntas sobre el uso y sus consecuencias,” dijo Østergaard a Fortune. “Creo que es importante que los profesionales de salud mental estén familiarizados con el uso de chatbots de IA. De lo contrario, será difícil hacer preguntas relevantes.”
Los investigadores originales del estudio están en sintonía con Insel en esa última parte: debido a que es tan universal, solo pudieron revisar los registros de pacientes que mencionaron un chatbot, advirtiendo que el problema podría ser aún más extenso de lo que sus resultados mostraron.
“Temo que el problema sea más común de lo que la mayoría piensa,” dijo Østergaard. “Solo estamos viendo la punta del iceberg.”
Si tienes pensamientos suicidas, contacta con la Línea de Vida 988 llamando al 988 o al 1-800-273-8255.
Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune, del 19 al 20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.