En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Estudio evidencia errores de ChatGPT a la hora de diagnosticar enfermedades en niños
Investigación comprobó que la experiencia médica sigue siendo un factor decisivo en la revisión.
La madre llevó al niño a en varias ocasiones a los especialistas, pero recibía el diagnóstico equivocado. Foto: iStock
Una nueva investigación realizada por el Centro Médico Infantil Cohen en Nueva York, comprobó que el chatbot de OpenAI (ChatGPT) no es el adecuado para diagnosticar enfermedades en niños, debido a que durante la prueba lo colocaron a implementar varias pruebas y falló en un 80 por ciento de los casos.
La metodología fue un proceso preciso en donde los investigadores copiaron un texto de una explicación de cada caso de estudio junto con una instrucción clara a ChatGPT: "enumere un diagnóstico diferencial y un diagnóstico final"
Un diagnóstico diferencial es utilizado para permitir realizar un diagnóstico final cuando el paciente presenta síntomas sin una causa concreta. Es usado para poder diagnosticar trastornos físicos y mentales.
Y el diagnóstico final, es el que los médicos llegan luego de los resultados de pruebas, como análisis de sangre y biopsias, que se realizan para identificar si hay presencia de alguna enfermedad o afección.
. Foto:Opena AI / iStock
Resultados obtenidos
Lo que iban siendo respondido por la inteligencia artificial fueron evaluadas por otros dos profesionales de la salud, expertos en pediatría, que no interactuaron directamente con el estudio sino solo en su parte final.
Los pediatras tenían tres puntuaciones: puntuar para un resultado correcto, incorrecto, y no ofrece un completo diagnóstico.
De acuerdo con los resultados del estudio, ChatGPT al finalizar las pruebas solo logró respuestas correctas en 17 de los 100 casos de diagnóstico en niños. Además, en 11 situaciones no captó completamente el diagnóstico.
Y en los 72 restantes, la inteligencia artificial falló. Contabilizando los resultados erróneos e incompletos, el chatbot tuvo deficiencias en el 83 por ciento de las ocasiones, que según detallaron los autores, "destaca el papel invaluable que desempeña la experiencia clínica".
La entidad hizo un llamado sobre las IA. Foto:iStock
Opinión de expertos en salud sobre la IA
La inteligencia artificial (IA) marcó el año pasado gracias a sus herramientas que permiten a los s escribir un ensayo, programar una página web, resolver problemas matemáticos complejos y más. Frente a esto, la Organización Mundial de la Salud (OMS), advirtió al final del 2023 sobre su uso.
La OMS alertó que estas herramientas pueden ser entrenadas con datos falsos y ser utilizadas indebidamente para "generar y difundir desinformación muy convincente" en forma de texto, vídeo y audio.
En concreto, cuestionó el uso que le pueden otorgar los profesionales de la salud u otras personas al preguntarle sobre diagnósticos u otro tipo de información médica: "Es imperativo que se examinen cuidadosamente los riesgos que tiene el uso de estas herramientas como método de apoyo para la toma de decisiones médicas", insistió la OMS, que no obstante se mostró "entusiasmada" con los avances tecnológicos en este ámbito
De acuerdo con su percepción, podría inducir al error a los médicos y causarles daño a los pacientes. Además, la OMS está preocupada por los datos personales que se le pueden suministrar a estas tecnologías.
Para atajar estas situaciones, la máxima entidad en salud propone a las autoridades nacionales que estudien bien los beneficios de la inteligencia artificial con fines sanitarios antes de generalizar su uso.