Hombre sigue un consejo de ChatGPT y termina hospitalizado


El caso fue publicado en la revista del Colegio Estadounidense de Médicos. (Imagen representativa)
Un hombre de 60 años fue hospitalizado tras consultar a ChatGPT sobre cómo mejorar su dieta. Según el New York Post , el hombre, cuya identidad no ha sido revelada, ingresó con graves síntomas psiquiátricos después de preguntar al chatbot de IA cómo eliminar el cloruro de sodio de su dieta. Los médicos observaron que el hombre no tenía antecedentes psiquiátricos ni médicos, sin embargo, durante las primeras 24 horas de hospitalización, presentó mayor paranoia y alucinaciones auditivas y visuales. También experimentó sed intensa y problemas de coordinación.
Todo comenzó cuando el hombre leyó sobre los efectos adversos de la sal de mesa en la salud. Consultó a ChatGPT y le dijeron que podía sustituirla por bromuro de sodio. Cabe destacar que el bromuro de sodio se parece a la sal de mesa, pero es un compuesto completamente diferente. Se usa ocasionalmente en medicamentos, pero su uso más común es en la industria y la limpieza. Ingerir demasiado bromuro puede causar síntomas neuropsiquiátricos y dermatológicos, según la fuente .
El caso del hombre fue publicado en la revista del Colegio Estadounidense de Médicos. Según el informe, el hombre, que estudió nutrición en la universidad, estaba realizando un experimento en el que eliminó el cloruro de sodio de su dieta y lo reemplazó con bromuro de sodio que compró por internet.
Ingresó en el hospital tres meses después de cambiar su dieta. Les contó a los médicos que diluía su propia agua y que seguía varias restricciones dietéticas. Se quejaba de sed, pero desconfiaba cuando le ofrecían agua, según el informe.
Los médicos observaron que el hombre no tenía antecedentes psiquiátricos, pero después de 24 horas de hospitalización, se volvió cada vez más paranoico e informó de alucinaciones auditivas y visuales.
El hombre recibió tratamiento con líquidos, electrolitos y antipsicóticos. También fue ingresado en la unidad de psiquiatría del hospital tras intentar fugarse. Permaneció tres semanas hospitalizado antes de recibir el alta.
“Es importante tener en cuenta que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de analizar críticamente los resultados y, en última instancia, alimentar la propagación de información errónea”, advirtieron los autores del informe, según el New York Post.
Cabe destacar que OpenAI, la empresa desarrolladora de ChatGPT, también indica en sus términos de uso que la información proporcionada por el chatbot «puede no ser siempre precisa». «No debe basarse en la información proporcionada por nuestros servicios como única fuente de veracidad o información objetiva, ni como sustituto del asesoramiento profesional», señalan los Términos de uso.
«Nuestros servicios no están destinados a ser utilizados en el diagnóstico o tratamiento de ninguna afección médica», afirma.

Netflix adquirirá Warner Bros. Discovery (WBD), incluyendo los estudios de cine y televisión, así como HBO y HBO Max, por 82.700 millones de dólares, anunciaron este viernes las dos compañías en un comunicado conjunto La oferta final de Netflix ha sido de 27,75 dólares por acción de WBD, frente a los 24 que había propuesto […]

Al menos seis jóvenes estudiantes fallecieron y tres resultaron heridos en un incendio en un restaurante de la región andina de Puno, en el sureste de Perú, informó la policía sin precisar sus edades. El siniestro se produjo en la ciudad de Huancané. El mismo cuando un grupo de alumnos de un instituto pedagógico celebraba el cumpleaños de uno de […]

REDACCIÓN.- Joly Germine, que se describía a sí mismo como el «rey» de una violenta pandilla en Haití, fue sentenciado este miércoles en una corte de Washington a cadena perpetua por su papel en el secuestro de 16 ciudadanos estadounidenses, incluyendo cinco niños, en el país caribeño, informó el Departamento de Justicia. Conocido como alias ‘Yonyon’, Germine fue hallado culpable por un jurado federal en mayo por […]