Hombre sigue un consejo de ChatGPT y termina hospitalizado


El caso fue publicado en la revista del Colegio Estadounidense de Médicos. (Imagen representativa)
Un hombre de 60 años fue hospitalizado tras consultar a ChatGPT sobre cómo mejorar su dieta. Según el New York Post , el hombre, cuya identidad no ha sido revelada, ingresó con graves síntomas psiquiátricos después de preguntar al chatbot de IA cómo eliminar el cloruro de sodio de su dieta. Los médicos observaron que el hombre no tenía antecedentes psiquiátricos ni médicos, sin embargo, durante las primeras 24 horas de hospitalización, presentó mayor paranoia y alucinaciones auditivas y visuales. También experimentó sed intensa y problemas de coordinación.
Todo comenzó cuando el hombre leyó sobre los efectos adversos de la sal de mesa en la salud. Consultó a ChatGPT y le dijeron que podía sustituirla por bromuro de sodio. Cabe destacar que el bromuro de sodio se parece a la sal de mesa, pero es un compuesto completamente diferente. Se usa ocasionalmente en medicamentos, pero su uso más común es en la industria y la limpieza. Ingerir demasiado bromuro puede causar síntomas neuropsiquiátricos y dermatológicos, según la fuente .
El caso del hombre fue publicado en la revista del Colegio Estadounidense de Médicos. Según el informe, el hombre, que estudió nutrición en la universidad, estaba realizando un experimento en el que eliminó el cloruro de sodio de su dieta y lo reemplazó con bromuro de sodio que compró por internet.
Ingresó en el hospital tres meses después de cambiar su dieta. Les contó a los médicos que diluía su propia agua y que seguía varias restricciones dietéticas. Se quejaba de sed, pero desconfiaba cuando le ofrecían agua, según el informe.
Los médicos observaron que el hombre no tenía antecedentes psiquiátricos, pero después de 24 horas de hospitalización, se volvió cada vez más paranoico e informó de alucinaciones auditivas y visuales.
El hombre recibió tratamiento con líquidos, electrolitos y antipsicóticos. También fue ingresado en la unidad de psiquiatría del hospital tras intentar fugarse. Permaneció tres semanas hospitalizado antes de recibir el alta.
“Es importante tener en cuenta que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de analizar críticamente los resultados y, en última instancia, alimentar la propagación de información errónea”, advirtieron los autores del informe, según el New York Post.
Cabe destacar que OpenAI, la empresa desarrolladora de ChatGPT, también indica en sus términos de uso que la información proporcionada por el chatbot «puede no ser siempre precisa». «No debe basarse en la información proporcionada por nuestros servicios como única fuente de veracidad o información objetiva, ni como sustituto del asesoramiento profesional», señalan los Términos de uso.
«Nuestros servicios no están destinados a ser utilizados en el diagnóstico o tratamiento de ninguna afección médica», afirma.

El Benfica presentó una propuesta de renovación al técnico portugués José Mourinho en medio de las crecientes versiones que lo vinculan con un posible regreso al Real Madrid para la próxima temporada. De acuerdo con reportes de la prensa portuguesa, el presidente del club lisboeta, Rui Costa, habría formalizado una oferta para extender el contrato […]

Nueva York.- El diario estadounidense The New York Times aseguró este lunes que Israel habría destinado recursos económicos para influir en el televoto del festival Eurovisión al menos desde 2018, como parte de una estrategia de “poder blando” orientada a fortalecer su imagen internacional. Según una investigación publicada por el periódico, el Gobierno israelí habría […]

La red social TikTok ha lanzado en el Reino Unido una versión de pago sin publicidad que cuesta 3,99 libras (4,6 euros) al mes, un modelo que ya está vigente en otras redes como Instagram, Facebook o YouTube. La medida, que será comunicada a los usuarios mayores de 18 años, será implementada “en los próximos meses”, según la compañía. […]