La inteligencia artificial revoluciona la docencia médica

marzo 5, 2024

Por Roberto Borrone.

El protagonismo creciente (en forma exponencial) de la inteligencia artificial (IA) en el mundo de la medicina es un hecho concreto e irreversible y con un futuro que superará límites insospechados.

Podemos abordar el tema en dos planos: uno –el más transitado– es el de las aplicaciones de la IA en el área asistencial y de investigación médica. El segundo plano es el enfocado en la potencialidad del uso de la IA en el área de la docencia médica.

En la cátedra de Oftalmología del Hospital de Clínicas José de San Martín (UBA) efectuamos en septiembre del año pasado una investigación que consistió en comparar el desempeño de una cohorte de médicos con respecto al del ChatGPT-4 en el examen final teórico de posgrado de la carrera de médico especialista universitario en Oftalmología. Ese examen consiste en 50 preguntas con cuatro opciones de respuesta cada una (multiple choice). El artículo con los resultados y análisis de esta experiencia fue aprobado para su publicación en la revista científica Oftalmología Clínica y Experimental al superar la evaluación de los revisores. Las respuestas correctas de los alumnos determinaron una exactitud promedio del 78%, en tanto que GPT-4 logró una exactitud del 80%. El umbral de respuestas correctas para aprobar el examen requiere una exactitud del 60%.

El tiempo promedio para completar el examen fue de 75 minutos para los alumnos y de 73,49 segundos para GPT-4. Se trata de una cifra 61 veces inferior al promedio del tiempo utilizado por los alumnos.

En el examen para obtener la licencia médica en los EE.UU. la performance global de GPT-4 fue de una exactitud del 86% En cuanto a las preguntas vinculadas específicamente a oftalmología, GPT-4 respondió correctamente el 70% de la fase 1; 90% de la fase 2 y 96% de la fase 3. En cada etapa del examen las preguntas se enfocan en diferentes áreas del conocimiento.

En el examen del Colegio de Oftalmólogos del Reino Unido, con la misma modalidad de multiple choice, la exactitud de GPT-4 fue del 79,1%. En el examen nacional para la licencia médica en China, GPT-4 logró el 84% de exactitud.

El campo de aplicación de la IA en la docencia médica tiene notables posibilidades. Julio Mayol, de la Universidad Complutense de Madrid, destaca que “la inteligencia artificial hace posible la personalización del aprendizaje médico adaptando los contenidos, el ritmo y el estilo a las necesidades de cada estudiante. Esto promueve un mayor compromiso y motivación por parte del estudiante, conectándolo mejor con el material de estudio”.

La IA ayuda a generar contenidos educativos actualizados y de alta calidad. También incrementa la capacidad de producción de simulaciones clínicas para recrear escenarios realistas que permiten entrenar habilidades prácticas y estimular el razonamiento clínico de los estudiantes. Con la utilización de simuladores y entornos virtuales, los residentes pueden perfeccionar técnicas sin poner en riesgo a los pacientes. Incluso las nuevas herramientas de IA son capaces de interpretar la información de los videos quirúrgicos. Estas posibilidades nos conducen a herramientas de tutoría inteligente para resolver áreas de dificultad en cada estudiante y residente.

Respecto de las aplicaciones de la IA en el campo de la investigación médica y la tarea asistencial, las posibilidades son deslumbrantes, pero esto no debe distraernos de ciertos riesgos y desafíos.

Un logro impactante consistió en la predicción de eventos como el riesgo de muerte de los pacientes, el tiempo estimado de internación o la posibilidad de su readmisión en internación dentro del primer mes luego del alta. El modelo predictivo basado en IA NYUTron fue entrenado con las anotaciones redactadas por los médicos en las historias clínicas de 336.000 pacientes en los EE.UU., atendidos entre 2011 y 2020. Fue diseñado por un equipo de la Escuela Grossman de Medicina de la Universidad de Nueva York. Sus resultados fueron publicados en la prestigiosa revista científica NatureEsas historias clínicas constituyeron una fuente de datos de 4100 millones de palabras. Al analizar grandes cantidades de datos de los pacientes, la IA puede encontrar patrones que los médicos podrían pasar por alto. Analizando las historias clínicas, los investigadores pudieron calcular el porcentaje de aciertos del programa. El resultado fue que el programa identificó al 85% de los pacientes que finalmente murieron en su internación y al 80% de los pacientes que requirieron reinternación en un plazo de 30 días.

Erik Oermann, investigador principal del proyecto, concluyó que la IA ayudará a proveer más información a los médicos para la toma de decisiones.

La detección temprana de enfermedades es otra de las áreas en las que el desarrollo de herramientas de IA está logrando avances impensados poco tiempo atrás. La IA está facilitando el diagnóstico precoz del cáncer y de enfermedades neurodegenerativas (Parkinson, Alzheimer o esclerosis lateral amiotrófica). El análisis de imágenes médicas (tomografías computadas, resonancias magnéticas, imágenes de la retina, histopatologías) utilizando IA permite efectuar diagnósticos más precoces y precisos, y personalizar los tratamientos para mejorar la calidad de vida y la supervivencia, tal como lo expresó claramente Isabel Lüthy.

La IA ha abierto un inmenso panorama para el desarrollo de nuevas drogas.

Otro campo es el monitoreo en tiempo real del estado de salud de los pacientes en forma remota mediante sensores y dispositivos portátiles que permiten a la IA analizar esos datos y eventualmente enviar una señal de alerta.

Marcelo D’Agostino (OPS/OMS) ha remarcado la importancia de usar herramientas basadas en algoritmos transparentes que se nutran de bases de datos con evidencia científica probada. Son fundamentales las consideraciones éticas sobre el origen de los datos cumpliendo además con las normas de privacidad y confidencialidad. Herramientas como ChatGPT pueden no entender el contexto y llevar a interpretaciones inexactas o incompletas.

Roberto Miatello, decano de la Facultad de Ciencias Médicas de la Universidad de Cuyo, ha expresado que “la IA no debe (ni puede) reemplazar por completo la experiencia clínica y el juicio humano, sino más bien complementarlos. No puede reemplazar la necesidad de habilidades interpersonales, empatía y juicio clínico, que son componentes fundamentales de la atención médica de calidad”.

Luis Ignacio Brusco, decano de la Facultad de Medicina de la Universidad de Buenos Aires, plantea una pregunta fundamental: ¿la inteligencia artificial puede desarrollar empatía? “La empatía permite comprender las relaciones intersubjetivas e implica la capacidad de entender al otro. La empatía es ver con los ojos de otro, escuchar con los oídos de otro y sentir con el corazón de otro” (Alfred Adler). Esta falta de empatía es considerada una de las limitaciones de la IA. El profesor Brusco plantea que “para tener empatía es necesaria la metacognición, es decir, reconocerse a uno mismo. En ese marco, no podríamos entender la intersubjetividad sin tener conciencia de nuestra subjetividad. Que la IA logre empatía implicaría su llegada a la singularidad, y esto implicaría inteligencia emocional”. El límite sería que “la inteligencia artificial nunca podrá repetir la idiosincrasia grupal de lo aprendido como homo sapiens y de pertenecer a esta tribu, nuestra tribu, de la cual nunca podrá ser parte. Allí reside su debilidad (su talón de Aquiles) y hasta quizá su fortaleza (y también su peligro)”.

Para concluir, y siguiendo al doctor Arcadi Gual, desde el Corpus Hippocraticum los valores de la medicina se sustentan en la philotechnie (amor por la ciencia/técnica) y la philantropie (amor y respeto al paciente/principios éticos). La irrupción de la IA en la medicina nos brinda una herramienta fantástica que no debería alterar el imprescindible equilibrio entre esas dos columnas fundamentales.

─Roberto Borrone es Profesor consulto de la cátedra de Oftalmología de la Facultad de Medicina de la Universidad de Buenos Aires, Hospital de Clínicas (UBA). Doctor en Medicina (UBA).

Fuente: lanacion.com.ar, 05/03/24

Más información:

La miopía es una enfermedad y no solamente anteojos


.

.

Estafas mediante Inteligenci Artificial

marzo 9, 2023

Cada vez hay más estafas con herramientas de IA, especialistas piden mayor regulación de los gobiernos

Por Todd Crawford.

Los estafadores están recurriendo cada vez más a la inteligencia artificial (IA) para estafar a objetivos desprevenidos con su dinero duramente ganado. 

Según un informe del Washington Post, miles de víctimas han perdido millones de dólares a manos de estafadores que utilizan IA para imitar las voces de sus seres queridos que piden ayuda.

Un modelo de IA, desarrollado por Microsoft, llamado VALL-E que puede simular con precisión la voz de una persona después de analizar solo tres segundos de audio irrumpió en escena a principios de este año y se adaptó rápidamente para cometer fraude.

“VALL-E puede tomar una grabación de tres segundos de la voz de alguien y replicar esa voz, convirtiendo las palabras escritas en habla, con entonación y emoción realistas según el contexto del texto”, se lee en un sitio web oficial de VALL-E

Los desarrolladores de la IA especulan que la tecnología podría usarse para aplicaciones de texto a voz de alta calidad y podría ayudar a los creadores de contenido cuando se combina con otros modelos de IA como GPT-3. Sin embargo, la tecnología se adoptó de inmediato para un propósito más oscuro, a menudo dirigido a los ancianos.

En una conversación con el Washington Post, Ruth Card, una abuela de 73 años, dijo que recibió una llamada telefónica de quien creía que era su nieto, Brandon, quien suplicaba dinero para pagar la fianza, lo que llevó a ella y a su esposo a correr al banco para asegurar los fondos.

“Definitivamente fue este sentimiento de… miedo. Que tenemos que ayudarlo en este momento”, dijo Card al Washington Post, y agregó que “nos absorbieron. Estábamos convencidos de que estábamos hablando con Brandon”.

Card descubrió la estafa antes de entregar el dinero, sin embargo, no todos tuvieron tanta suerte.

Pareja canadiense pierde $21.000

Según los informes, una pareja canadiense perdió 21.000 dólares canadienses a manos de un estafador después de recibir una llamada de quien creían que era un abogado que representaba a su hijo, quien afirmaba que su hijo fue encarcelado por matar a un diplomático en un accidente automovilístico. 

Benjamin Perkin le dijo al Washington Post que los estafadores usaron una voz generada por IA que imitaba su voz que suplicaba dinero a sus padres. Más tarde, un hombre hizo un seguimiento de los padres de Perkin afirmando ser su abogado y diciendo que necesitaba $21.000 para los honorarios legales. 

Perkin le dijo al Washington Post que la voz estaba “lo suficientemente cerca como para que mis padres realmente creyeran que hablaron conmigo”.

Creyendo que su hijo estaba en problemas, la pareja reunió el dinero y se lo envió al estafador como Bitcoin. Si bien admitieron que la llamada sonaba sospechosa, aun así enviaron los fondos y no se dieron cuenta de que habían sido estafados hasta que recibieron una llamada real de su hijo. 

La pareja presentó un informe policial ante las autoridades canadienses, pero admitió al Washington Post: “El dinero se fue. No hay seguro. No hay forma de recuperarlo”.

Perkin especuló que los estafadores obtuvieron muestras de su voz a través de videos que publicó en YouTube sobre motos de nieve. 

¿Viene la regulación?

Actualmente, hay una multitud de herramientas de IA accesibles al público en general que pueden crear un texto convincente, generar una imagen o un video con un simple aviso o, como en el caso de las estafas telefónicas, imitar de manera convincente la voz de cualquier persona.

Las llamadas para regular la tecnología están aumentando. Sin embargo, a diferencia del pasado, los gobiernos parecen reacios a tomar medidas. Mark MacCarthy, publicando para Brookings, escribió en marzo de 2020: “La regulación se considera un costo, un obstáculo, un retraso o una barrera que debe aceptarse a regañadientes como último recurso solo si es absolutamente necesario”.

En la década de 1970, cuando la industria de las tarjetas de crédito apenas estaba surgiendo, los consumidores estaban en apuros por cualquier transacción fraudulenta en sus tarjetas, incluso si su tarjeta había sido robada o perdida. 

El Congreso de EE. UU. abordó el problema al aprobar la Ley de Facturación Justa de Crédito de 1974, que buscaba limitar la responsabilidad del titular de la tarjeta e impedía que las compañías de tarjetas de crédito traspasaran las pérdidas debidas al fraude a los titulares de la tarjeta. 

La legislación inspiró confianza en la industria de las tarjetas de crédito y le permitió crecer hasta convertirse en un sistema sólido y confiable e inspiró la innovación. 

“Sin embargo, los formuladores de políticas han olvidado este efecto secundario beneficioso de la regulación, prefiriendo dar rienda suelta a los actores de la industria para implementar tecnologías emergentes como mejor les parezca”, escribió MacCarthy. 

La Casa Blanca publicó una «Guía para la regulación de aplicaciones de inteligencia artificial» en 2020, que estableció un marco para que los futuros legisladores elaboren legislación, sin embargo, no parece estar dando como resultado ninguna acción significativa.

La gente necesita confiar en la tecnología

A medida que las empresas continúan incorporando IA en sus productos y servicios, la atención de los legisladores se está desviando de la protección de datos a cómo el software utiliza esos datos. 

Un libro blanco de 2020 titulado «Sobre la inteligencia artificial: un enfoque europeo para la excelencia y la confianza» buscó establecer un marco legal de IA y argumenta que la regulación es esencial para el desarrollo de la IA, inspirando confianza en los consumidores y estimulando la innovación. 

El documento argumentó que a medida que la tecnología se convierte en una parte cada vez más central de todos los aspectos de la experiencia humana, las personas deben poder confiar en ella. “La confiabilidad también es un requisito previo para su aceptación”, argumentaron los autores del artículo.

Sin embargo, a pesar de la acción del gobierno, las nuevas IA no reguladas están inundando Internet, muchas disponibles de forma gratuita para cualquier persona, y los expertos predicen que el mercado de chips de IA crecerá exponencialmente hasta el final de la década.

A medida que los estafadores sigan adoptando la IA para realizar fraudes, la confianza en la tecnología seguirá deteriorándose, y los errores recientes solo han erosionado aún más esa confianza. 

En febrero de este año, Google presentó Bard, un chatbot de IA que se lanzó como competidor de CHATGPT y que se volvió viral a fines de 2022 por su capacidad para generar texto convincente.

Sin embargo, un error fáctico generado por el chatbot de Alphabet, que se utilizó en un anuncio de lanzamiento de la tecnología, provocó que el precio de las acciones de la empresa cayera en picado en 100.000 millones de dólares.

En el anuncio, al bot se le presentó la pregunta: «¿Qué nuevos descubrimientos del telescopio espacial James Webb puedo contarle a mi hijo de 9 años?»

El chatbot escupió varias respuestas, sin embargo, una respuesta evidente fue incorrecta. El bot afirmó que el JWST podrá tomar las primeras imágenes de un exoplaneta, algo que logró el Very Large Telescope del Observatorio Europeo Austral en 2004.

La industria de la IA está fuera de control

Cynthia Rudin, profesora Earl D. McLean, Jr. de Ciencias de la Computación, Ingeniería Eléctrica e Informática, Ciencias Estadísticas, Matemáticas y Bioestadística y Bioinformática en la Universidad de Duke, le dijo recientemente a Wral Tech Wire que «la tecnología de IA en este momento es como un tren fuera de control y estamos tratando de perseguirlo a pie”.

Argumentó que las grandes empresas de tecnología no están incentivadas para crear herramientas éticas, sino que están incentivadas para generar ganancias. 

«El problema es que cuando dicen cosas como ‘queremos democratizar la IA’ es realmente difícil creérselo cuando están ganando miles y miles de millones de dólares», dijo, y añadió que «por eso, sería mejor que estas empresas no fueran monopolios y que la gente pudiera elegir cómo quiere que se utilice esta tecnología».

Rudin dijo que los gobiernos «definitivamente deberían intervenir» y regular la tecnología, y señaló que «no es que no hayan recibido suficiente advertencia».

Ella señala que los sistemas de recomendación, la IA utilizada por numerosas plataformas para recomendar contenido, han estado en uso durante años, pero los gobiernos no les han impuesto ningún tipo de regulación y la gente tiene poco o nada que decir sobre cómo se usa la tecnología. 

Cuando se le preguntó cuál es el peor de los casos, Rudin dijo: «La información errónea no es inocente».

“Hace un daño real a las personas a nivel personal. Ha sido la causa de guerras en el pasado. Piensa en la Segunda Guerra Mundial, piensa en Vietnam. Lo que realmente me preocupa es que la información errónea conduzca a una guerra en el futuro, y la IA será, al menos en parte, la culpable”, dijo.

Fuente: es.visiontimes.com, 08/03/23.

.

.