Fuente de la reimpresión del artículo: AI DreamWorks
Fuente original: Qubits
Fuente de la imagen: Generada por IA ilimitada
Había estado sufriendo una "enfermedad extraña" durante 3 años y había estado buscando tratamiento médico en vano, ¡pero finalmente ChatGPT me diagnosticó!
Esta es una experiencia real que le pasó a un niño de 4 años.
Después de cierto ejercicio, comenzó a sentir fuertes dolores en el cuerpo. Su madre la llevó a ver a 17 médicos, desde pediatras y ortopédicos hasta varios especialistas, y la sometieron a una serie de exámenes, como una resonancia magnética, pero nadie encontró realmente la causa.
Su madre intentó buscar ayuda en ChatGPT sin grandes esperanzas, pero este último directamente le dio el consejo correcto basándose en la descripción y el informe de inspección.
Tan pronto como salió el tema, llegó a la lista candente de Zhihu y la popularidad de Reddit también se disparó a 2,3k.
Algunos internautas dijeron que GPT es realmente emocionante esta vez:
Cada consultorio médico podría equiparse con un asistente de IA y compararlo con su propio diagnóstico.
Algunos internautas siguieron el ejemplo de Med-PaLM, un gran modelo auxiliar de diagnóstico médico especialmente entrenado por Google, y quisieron conocer sus resultados de diagnóstico:
Para modelos grandes, esta es una tarea de prueba casi perfecta.
Entonces, ¿qué está pasando exactamente?
¿Qué tipo de "enfermedad extraña" es?
El protagonista de la historia se llama Alex y su madre Courtney tiene dos hijos.
Un día de 2020, la niñera de Alex le dijo a Courtney que Alex tenía que tomar analgésicos todos los días, de lo contrario colapsaría por el dolor.
Luego, Alex comenzó a rechinar los dientes nuevamente. Sus padres vincularon las dos cosas y pensaron que podría ser causado por el dolor causado por el reemplazo de dientes o por caries.
Entonces su madre llevó a Alex al dentista y comenzó oficialmente el viaje de tres años de Alex para buscar tratamiento médico.
El dentista no encontró ningún problema después del examen, pero sugirió que, como Alex rechinaba los dientes, les recomendaba consultar a un ortodoncista especializado en el tratamiento de la obstrucción de las vías respiratorias.
El ortodoncista descubrió que la mandíbula superior de Alex era demasiado pequeña, lo que dificultaba la respiración, por lo que le colocó un expansor. Este método de tratamiento tuvo efecto y la madre alguna vez pensó que la enfermedad de Alex se curaría pronto.
Es razonable, pero la realidad muchas veces es ilógica.
Su madre pronto descubrió que Alex, que sólo tenía cuatro años, había perdido peso repentinamente.
Esta vez, la madre acudió al pediatra.
Los médicos pensaron que Alex podría haber sido afectado por el coronavirus, pero su madre no quedó satisfecha con esta explicación. Sin embargo, mi madre todavía llevó a Alex a una revisión a principios de 2021.
El médico le dijo a su madre que Alex había "crecido un poco más", pero descubrió que los pies izquierdo y derecho de Alex estaban algo desequilibrados y sugirió que eligieran fisioterapia.
Esta vez, su madre creyó las palabras del médico, pero antes de que comenzara la fisioterapia, Alex volvió a desarrollar síntomas de dolor de cabeza, que se volvieron cada vez más intensos.
La fisioterapia tuvo que suspenderse por el momento y su madre llevó a Alex a ver a un neurólogo, quien concluyó que Alex padecía migrañas.
Mientras luchaba contra los dolores de cabeza, Alex también padecía síntomas de agotamiento, por lo que lo llevaron a un otorrinolaringólogo para comprobar si había algún problema sinusal que afectara su sueño.
Después de pasar por estos giros y vueltas, Alex finalmente comenzó a recibir fisioterapia. Su fisioterapeuta creía que Alex podría tener una enfermedad congénita llamada malformación de Chiari.
Este trastorno congénito causa anomalías en el cerebro donde el cráneo se une con la columna.
La madre comenzó a investigar esto y llevó a Alex a ver nuevos pediatras, internistas pediátricos, internistas de adultos y médicos musculoesqueléticos.
Al final, Alex visitó hasta 17 médicos. Se puede decir que visitó casi todos los departamentos imaginables, e incluso lo enviaron a la sala de emergencias, pero aún no pudo descubrir la causa.
Hasta que ChatGPT provocó un giro de 180 grados en todo el incidente.
Con la mentalidad de intentarlo, mi madre registró una cuenta ChatGPT.
Ingresó los síntomas de Alex y las notas del informe de resonancia magnética, incluido un detalle de que Alex no podía sentarse con las piernas cruzadas.
ChatGPT dio el diagnóstico: síndrome del cordón anclado (TCS).
Por supuesto, Courtney no lo creyó directamente. Después de recibir la respuesta, primero encontró un grupo de comunicación para padres de niños con hijos en Facebook.
Después de leer la discusión, mi madre sintió que estos síntomas eran muy similares a los de Alex.
Este descubrimiento reavivó el fuego casi extinguido de la esperanza. Después, mi madre recordó que estuvo sentada frente al ordenador toda la noche y experimentó todo.
Armado con esta conclusión y el informe de resonancia magnética de Alex, se acercó al neurocirujano.
Esta vez finalmente encontramos a la persona adecuada. El médico echó un vistazo a la resonancia magnética y llegó a la misma conclusión que ChatGPT y señaló la ubicación específica de la correa.
Las cosas fueron mejor después de eso. Alex fue operado y actualmente se está recuperando.
Entonces, ¿por qué Alex no recibió el diagnóstico final hasta que vio al médico número 18?
En primer lugar, tiene algo que ver con el propio Alex.
Las personas con TCS a menudo desarrollan hendiduras en la espalda, pero Alex no tenía una hendidura, una condición llamada síndrome del cordón oculto oculto (OTCS).
Aunque el TCS es una enfermedad rara, su incidencia en los recién nacidos no es baja, alrededor del 0,005% al 0,025%, que es mayor que la incidencia de la leucemia.
△Chen Yingge, Mi Yang. Un caso de múltiples anomalías del desarrollo fetal durante el embarazo [J Advances in Clinical Medicine, 2023, 13(2).
Pero la OTCS es relativamente rara, tan rara que no se ha calculado en absoluto la tasa de incidencia.
Pero después de todo, al final de la historia, el cirujano hizo un juicio rápido después de ver las imágenes de resonancia magnética.
Por lo tanto, el fracaso en diagnosticar la enfermedad antes probablemente se debió a "encontrar al médico equivocado": entre los 17 médicos, ninguno se dedicaba a la cirugía.
Por supuesto, esto es normal, después de todo, todos son especialistas (correspondientes a médicos generales) que son buenos en sus respectivos campos de especialización. Es inevitable que no tengan una comprensión integral del conocimiento fuera de sus especialidades.
Pero esto también expuso un problema. Cuando encontraron problemas inexplicables, estos médicos no consideraron la consulta multidisciplinaria y se desconoce si preguntaron completamente sobre el historial médico de Alex.
En palabras de su madre, Courtney, nadie estaba dispuesto a resolver "el problema mayor (más allá de su propia disciplina)" y nadie daría ninguna pista sobre el diagnóstico.
La base de conocimientos de ChatGPT es al menos mucho más rica que la de los profesionales en campos subdivididos. Considera la situación de Alex de manera más exhaustiva antes de llegar finalmente a la conclusión correcta.
Entonces, ¿el diagnóstico exitoso de ChatGPT esta vez es un error o realmente tiene capacidades de diagnóstico?
¿Se puede utilizar la IA para el diagnóstico?
De hecho, esta no es la primera vez que alguien utiliza ChatGPT o GPT-4 como herramienta de diagnóstico de enfermedades.
Por ejemplo, poco después de que apareciera GPT-4, alguien lo utilizó para diagnosticar con éxito un caso en su perro. Esta experiencia se hizo popular en Internet.
Le contó a GPT-4 los síntomas del perro desde la primera aparición, el proceso de tratamiento y el informe de cada análisis de sangre:
El día 20, la fiebre era de 41,5 grados centígrados. El médico diagnosticó babesiosis canina según los resultados de los análisis de sangre (se adjuntan los resultados de los análisis de sangre). El día 24 recibió tratamiento con antibióticos, pero su. las encías se pusieron pálidas (se adjuntan nuevos resultados de análisis de sangre).
GPT-4 rápidamente dio los resultados de la detección e indicó en la conversación que puede deberse a las dos razones siguientes:
1. Hemólisis: Destrucción de glóbulos rojos por diversos motivos, como anemia hemolítica inmunomediada (IMHA), toxinas u otras infecciones distintas a la babesiosis. 2. Pérdida de sangre: Sangrado interno o externo, que puede ser causado por un traumatismo, una cirugía o problemas gastrointestinales (como úlceras o parásitos).
El diagnóstico final del médico mostró que el perro efectivamente padecía anemia hemolítica inmunomediada (IMHA), y se salvó después de que se le administró la medicación adecuada.
Además, algunos internautas también informaron que ChatGPT (GPT-4) les salvó la vida.
Se sintió dolorido por todas partes después de ir al gimnasio. Después de consultar a GPT-4 sobre su condición, obtuvo la respuesta de "rabdomiólisis" e inmediatamente fue al hospital y murió como resultado.
Sin embargo, algunos estudios académicos han mencionado que ni ChatGPT ni GPT-4 son médicos de IA en los que se pueda confiar completamente.
Por ejemplo, un estudio publicado en JAMA por el Brigham and Women's Hospital (BWH), un hospital afiliado a la Universidad de Harvard, demostró que al dar recomendaciones de tratamiento contra el cáncer, ChatGPT era completamente correcto en sólo el 62% de los casos.
En otros casos, el 34% de las sugerencias contenían al menos una o más respuestas que no coincidían con el diagnóstico correcto, y el 2% de los casos dieron un diagnóstico inverosímil.
En este sentido, el estudio cree que el diagnóstico no se puede dejar completamente en manos de ChatGPT o GPT-4, después de todo, todavía no pueden compararse con los médicos profesionales en el proceso de diagnóstico.
(Sin embargo, algunos internautas señalaron que la razón por la cual ChatGPT no pudo diagnosticar con éxito también puede estar relacionada con los datos de entrenamiento, y la información del tratamiento después de 2021 no está incluida)
En este sentido, Andrew Beam, profesor asistente de epidemiología de la Universidad de Harvard, cree que los efectos de ChatGPT y GPT-4 deben verse desde dos lados:
Por un lado, es mejor utilizarlos que algún software de diagnóstico común o motores de búsqueda de Google, especialmente la versión GPT-4. Pero, por otro lado, no es probable que todavía reemplacen a los médicos con experiencia sustancial. Después de todo, para la IA, es posible fabricar información cuando no pueden encontrar la respuesta e inferir resultados erróneos basándose en "alucinaciones".
Jesse M. Ehrenfeld, presidente de la Asociación Médica Estadounidense (AMA), dijo que incluso si la IA puede diagnosticar los resultados, la responsabilidad final recae en el propio médico.
Para resumir el punto de vista anterior, cualquiera puede utilizar la IA para ayudar a diagnosticar la enfermedad, que es más fácil de usar que los motores de búsqueda, pero al final todavía hay que ir al hospital y buscar un médico para el diagnóstico.
Entonces, si planea utilizar un modelo grande para la "consulta", ¿qué modelo grande es mejor usar?
Algunos internautas se utilizaron a sí mismos como caso para probar si varios modelos de lenguaje grandes tienen capacidades de diagnóstico y finalmente pensaron que GPT-4 era más capaz:
Consulté a varios médicos sobre la causa de mi tos crónica, pero finalmente supe en un canal de YouTube que tenía LPR (Reflujo Laringofaríngeo Latente). Probé el modelo grande en mis propios casos y GPT-4 fue el único diagnosticado con éxito. Aunque Claude 2 tuvo una respuesta cercana, no pudo diagnosticarla de forma completamente independiente.
¿Alguna vez ha intentado utilizar IA para ayudar a diagnosticar su afección? ¿Cómo se siente?
Fuentes de información: [1]https://www.today.com/health/mom-chatgpt-diagnosis-pain-rcna101843[2]https://www.reddit.com/r/ChatGPT/comments/16gfrwp/a_boy_saw_17_doctors_over_3_years_for_chronic/[3]https://news.harvard.edu/gazette/story/2023/08/need-cancer-treatment-advice-forget-chatgpt/