Hombre sigue un consejo de ChatGPT y termina hospitalizado


El caso fue publicado en la revista del Colegio Estadounidense de Médicos. (Imagen representativa)
Un hombre de 60 años fue hospitalizado tras consultar a ChatGPT sobre cómo mejorar su dieta. Según el New York Post , el hombre, cuya identidad no ha sido revelada, ingresó con graves síntomas psiquiátricos después de preguntar al chatbot de IA cómo eliminar el cloruro de sodio de su dieta. Los médicos observaron que el hombre no tenía antecedentes psiquiátricos ni médicos, sin embargo, durante las primeras 24 horas de hospitalización, presentó mayor paranoia y alucinaciones auditivas y visuales. También experimentó sed intensa y problemas de coordinación.
Todo comenzó cuando el hombre leyó sobre los efectos adversos de la sal de mesa en la salud. Consultó a ChatGPT y le dijeron que podía sustituirla por bromuro de sodio. Cabe destacar que el bromuro de sodio se parece a la sal de mesa, pero es un compuesto completamente diferente. Se usa ocasionalmente en medicamentos, pero su uso más común es en la industria y la limpieza. Ingerir demasiado bromuro puede causar síntomas neuropsiquiátricos y dermatológicos, según la fuente .
El caso del hombre fue publicado en la revista del Colegio Estadounidense de Médicos. Según el informe, el hombre, que estudió nutrición en la universidad, estaba realizando un experimento en el que eliminó el cloruro de sodio de su dieta y lo reemplazó con bromuro de sodio que compró por internet.
Ingresó en el hospital tres meses después de cambiar su dieta. Les contó a los médicos que diluía su propia agua y que seguía varias restricciones dietéticas. Se quejaba de sed, pero desconfiaba cuando le ofrecían agua, según el informe.
Los médicos observaron que el hombre no tenía antecedentes psiquiátricos, pero después de 24 horas de hospitalización, se volvió cada vez más paranoico e informó de alucinaciones auditivas y visuales.
El hombre recibió tratamiento con líquidos, electrolitos y antipsicóticos. También fue ingresado en la unidad de psiquiatría del hospital tras intentar fugarse. Permaneció tres semanas hospitalizado antes de recibir el alta.
“Es importante tener en cuenta que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de analizar críticamente los resultados y, en última instancia, alimentar la propagación de información errónea”, advirtieron los autores del informe, según el New York Post.
Cabe destacar que OpenAI, la empresa desarrolladora de ChatGPT, también indica en sus términos de uso que la información proporcionada por el chatbot «puede no ser siempre precisa». «No debe basarse en la información proporcionada por nuestros servicios como única fuente de veracidad o información objetiva, ni como sustituto del asesoramiento profesional», señalan los Términos de uso.
«Nuestros servicios no están destinados a ser utilizados en el diagnóstico o tratamiento de ninguna afección médica», afirma.

Miami.- Millones de personas en Estados Unidos se preparan para una nueva ola de frío por la llegada de un nuevo frente ártico este fin de semana que amenaza con alcanzar temperaturas reales de -34 grados Celsius en zonas del noroeste y superar récords en Nueva York. «Una oleada de aire ártico peligrosamente frío» se […]

Santo Domingo, RD.- El empresario y comunicador Santiago Matías mostró su lado más solidario al brindar apoyo total al comentarista de farándula Melvin Alexander Vicente más conocido como Melvin TV, quien actualmente enfrenta un delicado diagnóstico de cáncer de colon. A pesar de las diferencias que ambos sostuvieron en el pasado, Matías decidió dejar atrás […]

Abu Dhabi, Emiratos Árabes Unidos.— El presidente Luis Abinader sostuvo una audiencia con el Príncipe Heredero de Abu Dhabi, su alteza real Khaled bin Mohamed bin Zayed, con lo que completó una exitosa jornada por los Emiratos Árabes Unidos. La reunión se desarrolló en un ambiente ameno y duró aproximadamente 25 minutos, a nivel de […]