Hombre sigue un consejo de ChatGPT y termina hospitalizado


El caso fue publicado en la revista del Colegio Estadounidense de Médicos. (Imagen representativa)
Un hombre de 60 años fue hospitalizado tras consultar a ChatGPT sobre cómo mejorar su dieta. Según el New York Post , el hombre, cuya identidad no ha sido revelada, ingresó con graves síntomas psiquiátricos después de preguntar al chatbot de IA cómo eliminar el cloruro de sodio de su dieta. Los médicos observaron que el hombre no tenía antecedentes psiquiátricos ni médicos, sin embargo, durante las primeras 24 horas de hospitalización, presentó mayor paranoia y alucinaciones auditivas y visuales. También experimentó sed intensa y problemas de coordinación.
Todo comenzó cuando el hombre leyó sobre los efectos adversos de la sal de mesa en la salud. Consultó a ChatGPT y le dijeron que podía sustituirla por bromuro de sodio. Cabe destacar que el bromuro de sodio se parece a la sal de mesa, pero es un compuesto completamente diferente. Se usa ocasionalmente en medicamentos, pero su uso más común es en la industria y la limpieza. Ingerir demasiado bromuro puede causar síntomas neuropsiquiátricos y dermatológicos, según la fuente .
El caso del hombre fue publicado en la revista del Colegio Estadounidense de Médicos. Según el informe, el hombre, que estudió nutrición en la universidad, estaba realizando un experimento en el que eliminó el cloruro de sodio de su dieta y lo reemplazó con bromuro de sodio que compró por internet.
Ingresó en el hospital tres meses después de cambiar su dieta. Les contó a los médicos que diluía su propia agua y que seguía varias restricciones dietéticas. Se quejaba de sed, pero desconfiaba cuando le ofrecían agua, según el informe.
Los médicos observaron que el hombre no tenía antecedentes psiquiátricos, pero después de 24 horas de hospitalización, se volvió cada vez más paranoico e informó de alucinaciones auditivas y visuales.
El hombre recibió tratamiento con líquidos, electrolitos y antipsicóticos. También fue ingresado en la unidad de psiquiatría del hospital tras intentar fugarse. Permaneció tres semanas hospitalizado antes de recibir el alta.
“Es importante tener en cuenta que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de analizar críticamente los resultados y, en última instancia, alimentar la propagación de información errónea”, advirtieron los autores del informe, según el New York Post.
Cabe destacar que OpenAI, la empresa desarrolladora de ChatGPT, también indica en sus términos de uso que la información proporcionada por el chatbot «puede no ser siempre precisa». «No debe basarse en la información proporcionada por nuestros servicios como única fuente de veracidad o información objetiva, ni como sustituto del asesoramiento profesional», señalan los Términos de uso.
«Nuestros servicios no están destinados a ser utilizados en el diagnóstico o tratamiento de ninguna afección médica», afirma.

Tres personas fallecieron y dos resultaron heridas este jueves por la tarde, tras estrellarse un helicóptero de turismo de aventura en la isla hawaiana de Kauaʻi. La aeronave, que transportaba a un piloto y cuatro pasajeros, se precipitó al océano cerca de la playa Kalalau, en la costa noroeste de la isla, alrededor de las […]

l CEO de BlackRock, Larry Fink, advirtió que el avance de la inteligencia artificial ya está transformando el mercado laboral en el mundo y podría afectar tanto el empleo como los salarios en varios sectores de la economía. En su carta anual a inversionistas, Fink señaló que la IA cambiará la productividad global, al punto que hasta […]

Un autobús de pasajeros que transportaba a unas 50 personas, entre ellas mujeres y niños, cayó hacia el río ubicado en el centro de Bangladesh justo cuando el chofer de la unidad hacía una maniobra para subir a una embarcación. En el incidente que quedó grabado en video y compartido en las redes sociales, se observa el momento justo cuando el camión lleno de pasajeros avanzó hasta llegar a la orilla del puerto donde cayó de frente […]