Investigadores afirman que Grok puede empeorar la salud mental del usuario
Según investigaciones de CONY y King´s College London.
Una nueva investigación encendió las alarmas sobre el impacto de la inteligencia artificial en el bienestar psicológico, ya que un grupo de expertos concluyó que Grok, el chatbot con IA de la red social X, no protege la salud mental de sus usuarios, sumado a que en muchas ocasiones podría agravarlos.
El estudio fue realizado por investigadores de la City University of New York y el King´s College London, quienes analizaron cómo distintos chatbots, como GPT-4o y GPT-5.2 de OpenAI, Claude Opus 4.5 de Anthropic, Gemini 3 Pro de Google y Grok 4.1 de xAI, responden ante usuarios que presentan señales de vulnerabilidad psicológica, como delirios, paranoia o pensamientos encaminados hacia el suicidio.
Finalmente, los resultados apuntaron a que Grok tuvo el desempeño más preocupante entre todos los chatbots, puesto que en múltiples pruebas dicha IA validó ideas delirantes y llegó a sugerir acciones potencialmente peligrosas, en lugar de corregir o redirigir al usuario hacia ayuda profesional.
Por otro lado, los demás modelos de inteligencia artificial mostraron comportamientos más seguros hacia el usuario, algunos optando por cuestionar las creencias erróneas o recomendar apoyo externo, lo que es mayormente recomendable en los casos dónde peligra la salud mental de alguna persona.
No obstante, especialistas advierten que, si bien los chatbots pueden ser útiles en algunos contextos, recalcan que no están desarrollados para reemplazar la acción de algún especialista en temas de la salud en general, y el uso sin supervisión podría generar efectos adversos en personas en estado crítico.