Advertisement
En harry desmontar, Woody Allen define la única prioridad de casi todos los que se sienten enfermos: «Las palabras más hermosas en inglés no son ¡te amo!, ¡sino que es armonía!». Durante años, muchas personas recurrieron a Google para obtener un diagnóstico sobre problemas de salud. A menudo hay incluso más miedos que los médicos tienen que afrontar después. Ahora, la empresa que muchos usan para aprender, navegar por las ciudades o reservar cenas puede mejorar su posición como fuente de información sobre estas preguntas existenciales a través de modelos de inteligencia artificial que le permitan responder con precisión a cuestiones médicas.
En un artículo publicado hoy en la revista NaturalezaUn equipo de la empresa muestra los resultados de su trabajo con Med-PaLM, un modelo de inteligencia artificial generativa similar a ChatGPT que se apoya en grandes bases de datos y logra organizar esta información para dar respuestas con sentido, si no siempre ciertas. La segunda versión de esta tecnología, Med-PaLM 2, ya alcanza una precisión del 86,5% en los exámenes tipo test que deben aprobar los médicos del MIR, lo que supone un aumento del 19% respecto a la versión anterior presentada en este artículo. .
En el artículo publicado hoy, los autores, en su mayoría miembros de Google Research, prueban sus modelos contra grandes bases de datos de preguntas y respuestas médicas, que también incluyen más de 3000 de las preguntas más buscadas por los usuarios en la web. Según un informe por correo electrónico de Shek Azizi, uno de los autores del artículo, la evolución de las puntuaciones en las pruebas que miden su capacidad de respuesta «en tres meses ha pasado de raspados aprobados por rendimiento a niveles expertos». Preguntas. Un panel de médicos estimó que el 92,9 % de las respuestas largas generadas por Med-PaLM coincidían con el consenso científico, un poco más que el 92,6 % de las respuestas proporcionadas por médicos humanos. Al comparar el número de reacciones que pueden conducir a resultados nocivos, las máquinas ganaron con un 5,8 % frente al 6,5 % de los médicos. Aunque los datos son prometedores, los autores dicen que se necesita más investigación para llevar estos modelos a la atención médica, y Azizi dice que no pueden imaginar «usar estos sistemas de forma autónoma o reemplazar a los médicos».
Josep Munuera, director de radiodiagnóstico del Hospital de la Santa Creu i Sant Pau de Barcelona y experto en tecnologías sanitarias, cree que estos modelos pueden ser útiles, pero advierte que «el trabajo de los médicos no es solo responder preguntas». ” como se presenta a estos modelos. «Se requiere investigación o atención al lenguaje no verbal para hacer un diagnóstico», dice. Posteriormente, se puede utilizar tecnología como la de Google para reducir la carga de trabajo y crear un informe comprensible para el paciente o un plan de tratamiento. “También puede ser útil como apoyo, brindando sugerencias para un diagnóstico o ayudando a buscar información científica en grandes bases de datos”, señala. “Pero luego necesitamos que el humano revise lo que está proponiendo la IA y también se responsabilice de la decisión”, concluye. “Lo que hacen los médicos es diverso, amplio y depende en gran medida de la interacción humana. Nuestro objetivo es utilizar la IA para mejorar la capacidad de los médicos para ofrecer mejores tratamientos”, coincide Azizi.
Advertisement
En una entrevista en EL PAÍS, la científica del MIT y experta en IA en medicina, Regina Barzilai, advertía de que las máquinas que aprenden por sí solas siguiendo las pautas que se les ofrecen pueden superar a los humanos en algunas capacidades y «nuestra capacidad de ver si lo consiguen». mal es mínimo”. “Debemos aprender a vivir en este mundo donde la tecnología toma muchas decisiones que no podemos controlar”, advirtió. Cualquiera que haya utilizado ChatGPT habrá comprobado la capacidad de estos sistemas para generar respuestas totalmente creíbles, plagadas de falsedades que son más difíciles de detectar precisamente porque están bien articuladas. Azizi, como Barzilai, sabe que si bien algunas de las respuestas que nos dan las máquinas son correctas, no sabemos exactamente de dónde provienen, lo que puede generar incertidumbre en asuntos tan delicados como los médicos.
En algunas aplicaciones de esta tecnología que no involucran el diagnóstico de enfermedades del paciente sino la búsqueda de conocimiento, las alucinaciones, como se denomina a las partes inventadas en los textos generados por IA, pueden no representar un problema. misma moneda y algunas aplicaciones, como el reposicionamiento de fármacos o el descubrimiento de vínculos entre genes y enfermedades, requieren un cierto nivel de creatividad, lo que a su vez posibilita el proceso de descubrimiento. e innovación.” , explica Azizi.
José Ibeas, nefrólogo del Hospital Parc Taulí de Sabadel y secretario del Grupo de Big Data e Inteligencia Artificial de la Sociedad Española de Nefrología, cree que este tipo de tecnología es el futuro y será muy útil para mejorar el tratamiento médico, pero cree que esto aún está por aprenderse “Por ejemplo, obtienen la información de fuentes de calidad, pero no todas las publicaciones son iguales y muchas veces no hay publicaciones de datos negativos, de experimentos donde algo se probó y no produjo el resultado esperado”. La IA crea texto a partir de esos textos, pero no sé qué ingredientes tomó de cada tipo de elemento, y eso puede generar sesgos”, señala Ibeas. «El mismo tratamiento puede ser útil para una población con una enfermedad en un entorno, pero no para otro», cita como ejemplo.
Para el Ibeas, por ahora, este tipo de modelos pueden ser un recurso para los médicos, pero en el futuro, al igual que otros productos médicos, se deberá verificar su utilidad antes de su aprobación comparando los resultados de los médicos en el consultorio con los que utilizan esta tecnología”. El especialista también señala que se debe tener precaución al usar esta tecnología, que los médicos deben estar capacitados en su uso y que solo debe usarse cuando va a ser realmente útil y no sucede, «como algunos productos muy buenos». en medicina que debido a la presión comercial para aplicarlos a todos, se cometen errores y finalmente se pierde la oportunidad de utilizar una tecnología muy útil”.
Un último aspecto que será relevante al utilizar estos modelos de lenguaje generativo será la capacidad de brindar acceso a respuestas de alta calidad a muchas personas que no tienen acceso a ellas. Los propios autores señalan que sus comparaciones, en las que la IA ya se comporta muy bien, se realizaron con expertos de muy alto nivel. A algunos médicos les preocupa que esta posibilidad pueda ser una excusa para recortar los recursos destinados a la atención sanitaria, aunque reconocen la utilidad de modelos como Med-PaLM en estos contextos.
puedes seguir EL PAÍS Salud y bienestar En Facebook, Gorjeo Y Instagram.