DeepSeek y medicina
abril 10, 2025
Por Roberto Borrone.
“La inteligencia consiste no solo en el conocimiento, sino también en la destreza de aplicar los conocimientos en la práctica” (Aristóteles). Luis Ignacio Brusco enfatiza en su magnífico libro Homo IA que el término “inteligencia” es heterogéneo y que mezcla muchas funciones (memoria, pensamiento deductivo, capacidades lingüísticas, capacidad visoespacial). Agreguemos a esto el concepto incorporado en 1995 por Daniel Coleman denominado “inteligencia emocional”. La Inteligencia artificial (IA) trata de imitar a la inteligencia humana en funciones como memoria, aprendizaje, resolución de problemas y toma de decisiones. Incluso muchos descreen que la empatía sea una de las limitaciones de la IA.

.
Ariel Torres enfatizó recientemente en LA NACIÓN (01/02/25), que una noticia tecno de alto impacto en el inicio de este año fue indudablemente la irrupción del modelo de lenguaje de inteligencia artificial (IA) DeepSeek generado por una pequeña empresa china, High Flyer, según su denominación en inglés y Haán Fang (Cuadrado Mágico), su nombre chino. El antecedente previo de impacto equivalente fue el desarrollo de la compañía Open AI cuando el 30 de noviembre de 2022 lanzó el ChatGPT. Un detalle sorprendente es que la startup china informó que sólo utilizó una fracción de los chips informáticos empleados por las empresas de IA. Los ingenieros de DeepSeek comunicaron que sólo necesitaron 2000 chips en lugar de los 16.000 o más utilizados por las compañías de IA preexistentes. (Cade Metz,The New York Times). En otras palabras, DeepSeek habría utilizado 8 a 10 veces menos de recursos de hardware especializado. La explicación disponible para esa novedad es que DeepSeek se basó en una metodología más eficaz para analizar los datos repartiendo el análisis entre varios modelos especializados de IA. Se lo denomina método de “mezcla de expertos” y habilita al modelo para decidir qué redes de procesamiento debe activar para cada tarea. El 20 de enero DeepSeek lanzó su modelo denominado DeepSeek R1. La información indica que R1 fue entrenado tomando como base el funcionamiento del Chatbot V3, de la misma startup china, mediante técnicas de aprendizaje por refuerzo ,donde a partir de las señales de retroalimentación que recibe (recompensa o penalización) el sistema ajusta su comportamiento. (http://es.wired.com)
Open AI ha expresado sus sospechas de que DeepSeek ha entrenado sus modelos estudiando los resultados de los modelos estadounidenses, mediante un proceso conocido como “destilación”. Se trata de una técnica prohibida expresamente en los términos de uso de sus modelos GPT. Vishal Yadav y Nikhil Pandley (Microsoft) se han referido a esto explicando que la destilación es un técnica diseñada para transferir los conocimientos de un gran modelo preentrenado (“el maestro”) a un modelo más pequeño (“el alumno”). Otro aspecto a destacar es que DeepSeek ha abierto su sistema de IA, esto significa que ha compartido el código informático con otras empresas e investigadores (“código abierto”) permitiendo que los desarrolladores trabajen de manera colaborativa. El código abierto está disponible para que cualquiera lo descargue y lo use.
El 5 de febrero le efectuamos un test a DeepSeek solicitándole que responda un cuestionario integrado por 45 preguntas médicas de la especialidad oftalmología. Se utilizó como fuente la bibliografía científica a la que habitualmente recurrimos para elaborar los exámenes de posgrado en la carrera de especialista de la Primera Cátedra de Oftalmología de la Facultad de Medicina de la Universidad de Buenos Aires (UBA) con sede en el Hospital de Clínicas. La novedad que incorporamos fue que el nivel de complejidad de los escenarios clínicos planteados en cada pregunta de este examen fue superior al utilizado habitualmente en nuestros exámenes. Otro rasgo singular de este examen fue que una proporción significativa de los escenarios clínicos planteados corresponde a síndromes sistémicos, es decir, enfermedades que, además del compromiso ocular, afectan a diferentes estructuras del organismo por lo que para su diagnóstico se requiere un profundo conocimiento tanto de oftalmología como de medicina en general. A DeepSeek se le solicitó emitir un diagnóstico para cada uno de los 45 casos clínicos planteados.
El resultado fue que DeepSeek respondió correctamente el 86 % de las preguntas (39/45). Las respuestas de DeepSeek a cada pregunta incluyó extensos párrafos en los que expresó todo el razonamiento que utilizó al valorar los síntomas, signos y resultados de estudios complementarios de cada caso clínico. En ese “razonamiento” DeepSeek emitió diagnósticos presuntivos y diagnósticos diferenciales hasta que finalmente llegó a su diagnóstico final. Un aspecto sorprendente es el lenguaje utilizado durante el razonamiento, simulando el escenario de estar interactuando con un colega experto en el tema, o la situación habitual de un ateneo clínico en una institución de salud. En la primera fase de sus respuestas, consistente en dar las respuestas con todo el “razonamiento” efectuado hasta llegar al diagnóstico final de las 45 preguntas, DeepSeek empleó 214 segundos, En la segunda fase de sus respuestas, realizada sin interrupción luego de la primera fase, DeepSeek ofreció un listado con sus 45 diagnósticos finales, tardando en total 14 segundos. En síntesis, tardó menos de 5 segundos para cada respuesta en la primera fase de respuestas con el razonamiento (4.75 segundos) y la tercera parte de 1 segundo (0.31 seg.) por cada respuesta en la segunda fase (sólo los diagnósticos).
Con el mismo examen fue testeado el modelo GPT4o de Open AI. El resultado fue que el 68 % de sus respuestas fueron correctas (31/45). En este caso el texto de las respuestas fue directamente el diagnóstico de cada caso clínico.
Un detalle interesante fue que DeepSeek y GPT4o coincidieron en 5 preguntas en sus respuestas incorrectas (sin coincidir en sus respectivas respuestas), es decir que en el 83 % de las respuestas incorrectas de DeepSeek (5/6), GPT4o también se equivocó. Se prestó especial atención a la construcción de las preguntas (planteo de casos clínicos) para minimizar un problema en lo que se denomina “prompt”, es decir, la instrucción o pregunta que se le hace a una herramienta de inteligencia artificial para que produzca algo.
Con el mismo examen fue evaluado un médico oftalmólogo con 25 años de experiencia en la especialidad y reconocido por su erudición superlativa en esta disciplina médica. Sus respuestas correctas correspondieron al 66 % de las preguntas (30/45). El tiempo que le demandó responder las 45 preguntas del examen fue de 49 minutos. Al finalizar calificó al examen como de alta dificultad.
La experiencia es ilustrativa en varios aspectos pero debemos considerar que es una “foto” circunstancial en el contexto de una tecnología que avanza con una dinámica sorprendent,e por lo que este “ranking” entre los modelos de inteligencias artificiales variará seguramente en muy poco tiempo (quizás cuando este artículo sea publicado). Valga la aclaración por las suspicacias que esto genera en el contexto geopolítico actual y la competencia tecnológica existente por la supremacía en IA.
.
Algunas reflexiones finales. No hay dudas respecto a la formidable herramienta que representa la IA para actuar cooperativamente con el médico al poner a su disposición su sorprendente capacidad para procesar una cantidad asombrosa de datos en forma instantánea. Ante la crisis actual que atraviesa la relación médico-paciente, la IA está abriendo la posibilidad para los médicos de humanizar nuestra práctica profesional poniendo el foco, además del conocimiento y las destrezas, en competencias como la empatía y el “criterio médico”, con una mirada holística del paciente. La sorprendente velocidad de estos avances tecnológicos me remite a una frase que repetía mi padre refiriéndose – hace ya muchos años-, a la brevedad de los viajes en avión cubriendo largas distancias: “el cuerpo llega antes que el alma”. Podríamos parafrasearla diciendo que cada novedad de esta revolución tecnológica liderada por la inteligencia artificial nos llega antes de recuperarnos del asombro que nos ha generado el último eslabón. A modo de epílogo, valga una advertencia: la fascinación por la tecnología no nos debe hacer olvidar el rol “humano” del médico ante el paciente.

Fuente: lanacion.com.ar, 03/04/25
Más información:
La pauperización médica en Argentina
Medicina prepaga: ni ángeles ni demonios
La miopía es una enfermedad y no solamente anteojos
La inteligencia artificial revoluciona la docencia médica
Hacia un país sin médicos clínicos ni pediatras suficientes
Historia del Cuerpo Médico Forense de la Justicia Nacional
Medicamentos de venta libre y los riesgos de la automedicación

.
La inteligencia artificial revoluciona la docencia médica
marzo 5, 2024
Por Roberto Borrone.
El protagonismo creciente (en forma exponencial) de la inteligencia artificial (IA) en el mundo de la medicina es un hecho concreto e irreversible y con un futuro que superará límites insospechados.
Podemos abordar el tema en dos planos: uno –el más transitado– es el de las aplicaciones de la IA en el área asistencial y de investigación médica. El segundo plano es el enfocado en la potencialidad del uso de la IA en el área de la docencia médica.
En la cátedra de Oftalmología del Hospital de Clínicas José de San Martín (UBA) efectuamos en septiembre del año pasado una investigación que consistió en comparar el desempeño de una cohorte de médicos con respecto al del ChatGPT-4 en el examen final teórico de posgrado de la carrera de médico especialista universitario en Oftalmología. Ese examen consiste en 50 preguntas con cuatro opciones de respuesta cada una (multiple choice). El artículo con los resultados y análisis de esta experiencia fue aprobado para su publicación en la revista científica Oftalmología Clínica y Experimental al superar la evaluación de los revisores. Las respuestas correctas de los alumnos determinaron una exactitud promedio del 78%, en tanto que GPT-4 logró una exactitud del 80%. El umbral de respuestas correctas para aprobar el examen requiere una exactitud del 60%.
El tiempo promedio para completar el examen fue de 75 minutos para los alumnos y de 73,49 segundos para GPT-4. Se trata de una cifra 61 veces inferior al promedio del tiempo utilizado por los alumnos.
En el examen para obtener la licencia médica en los EE.UU. la performance global de GPT-4 fue de una exactitud del 86% En cuanto a las preguntas vinculadas específicamente a oftalmología, GPT-4 respondió correctamente el 70% de la fase 1; 90% de la fase 2 y 96% de la fase 3. En cada etapa del examen las preguntas se enfocan en diferentes áreas del conocimiento.
En el examen del Colegio de Oftalmólogos del Reino Unido, con la misma modalidad de multiple choice, la exactitud de GPT-4 fue del 79,1%. En el examen nacional para la licencia médica en China, GPT-4 logró el 84% de exactitud.
El campo de aplicación de la IA en la docencia médica tiene notables posibilidades. Julio Mayol, de la Universidad Complutense de Madrid, destaca que “la inteligencia artificial hace posible la personalización del aprendizaje médico adaptando los contenidos, el ritmo y el estilo a las necesidades de cada estudiante. Esto promueve un mayor compromiso y motivación por parte del estudiante, conectándolo mejor con el material de estudio”.
La IA ayuda a generar contenidos educativos actualizados y de alta calidad. También incrementa la capacidad de producción de simulaciones clínicas para recrear escenarios realistas que permiten entrenar habilidades prácticas y estimular el razonamiento clínico de los estudiantes. Con la utilización de simuladores y entornos virtuales, los residentes pueden perfeccionar técnicas sin poner en riesgo a los pacientes. Incluso las nuevas herramientas de IA son capaces de interpretar la información de los videos quirúrgicos. Estas posibilidades nos conducen a herramientas de tutoría inteligente para resolver áreas de dificultad en cada estudiante y residente.
Respecto de las aplicaciones de la IA en el campo de la investigación médica y la tarea asistencial, las posibilidades son deslumbrantes, pero esto no debe distraernos de ciertos riesgos y desafíos.
Un logro impactante consistió en la predicción de eventos como el riesgo de muerte de los pacientes, el tiempo estimado de internación o la posibilidad de su readmisión en internación dentro del primer mes luego del alta. El modelo predictivo basado en IA NYUTron fue entrenado con las anotaciones redactadas por los médicos en las historias clínicas de 336.000 pacientes en los EE.UU., atendidos entre 2011 y 2020. Fue diseñado por un equipo de la Escuela Grossman de Medicina de la Universidad de Nueva York. Sus resultados fueron publicados en la prestigiosa revista científica Nature. Esas historias clínicas constituyeron una fuente de datos de 4100 millones de palabras. Al analizar grandes cantidades de datos de los pacientes, la IA puede encontrar patrones que los médicos podrían pasar por alto. Analizando las historias clínicas, los investigadores pudieron calcular el porcentaje de aciertos del programa. El resultado fue que el programa identificó al 85% de los pacientes que finalmente murieron en su internación y al 80% de los pacientes que requirieron reinternación en un plazo de 30 días.
Erik Oermann, investigador principal del proyecto, concluyó que la IA ayudará a proveer más información a los médicos para la toma de decisiones.
La detección temprana de enfermedades es otra de las áreas en las que el desarrollo de herramientas de IA está logrando avances impensados poco tiempo atrás. La IA está facilitando el diagnóstico precoz del cáncer y de enfermedades neurodegenerativas (Parkinson, Alzheimer o esclerosis lateral amiotrófica). El análisis de imágenes médicas (tomografías computadas, resonancias magnéticas, imágenes de la retina, histopatologías) utilizando IA permite efectuar diagnósticos más precoces y precisos, y personalizar los tratamientos para mejorar la calidad de vida y la supervivencia, tal como lo expresó claramente Isabel Lüthy.
La IA ha abierto un inmenso panorama para el desarrollo de nuevas drogas.
Otro campo es el monitoreo en tiempo real del estado de salud de los pacientes en forma remota mediante sensores y dispositivos portátiles que permiten a la IA analizar esos datos y eventualmente enviar una señal de alerta.
Marcelo D’Agostino (OPS/OMS) ha remarcado la importancia de usar herramientas basadas en algoritmos transparentes que se nutran de bases de datos con evidencia científica probada. Son fundamentales las consideraciones éticas sobre el origen de los datos cumpliendo además con las normas de privacidad y confidencialidad. Herramientas como ChatGPT pueden no entender el contexto y llevar a interpretaciones inexactas o incompletas.
Roberto Miatello, decano de la Facultad de Ciencias Médicas de la Universidad de Cuyo, ha expresado que “la IA no debe (ni puede) reemplazar por completo la experiencia clínica y el juicio humano, sino más bien complementarlos. No puede reemplazar la necesidad de habilidades interpersonales, empatía y juicio clínico, que son componentes fundamentales de la atención médica de calidad”.
Luis Ignacio Brusco, decano de la Facultad de Medicina de la Universidad de Buenos Aires, plantea una pregunta fundamental: ¿la inteligencia artificial puede desarrollar empatía? “La empatía permite comprender las relaciones intersubjetivas e implica la capacidad de entender al otro. La empatía es ver con los ojos de otro, escuchar con los oídos de otro y sentir con el corazón de otro” (Alfred Adler). Esta falta de empatía es considerada una de las limitaciones de la IA. El profesor Brusco plantea que “para tener empatía es necesaria la metacognición, es decir, reconocerse a uno mismo. En ese marco, no podríamos entender la intersubjetividad sin tener conciencia de nuestra subjetividad. Que la IA logre empatía implicaría su llegada a la singularidad, y esto implicaría inteligencia emocional”. El límite sería que “la inteligencia artificial nunca podrá repetir la idiosincrasia grupal de lo aprendido como homo sapiens y de pertenecer a esta tribu, nuestra tribu, de la cual nunca podrá ser parte. Allí reside su debilidad (su talón de Aquiles) y hasta quizá su fortaleza (y también su peligro)”.
Para concluir, y siguiendo al doctor Arcadi Gual, desde el Corpus Hippocraticum los valores de la medicina se sustentan en la philotechnie (amor por la ciencia/técnica) y la philantropie (amor y respeto al paciente/principios éticos). La irrupción de la IA en la medicina nos brinda una herramienta fantástica que no debería alterar el imprescindible equilibrio entre esas dos columnas fundamentales.
─Roberto Borrone es Profesor consulto de la cátedra de Oftalmología de la Facultad de Medicina de la Universidad de Buenos Aires, Hospital de Clínicas (UBA). Doctor en Medicina (UBA).
Fuente: lanacion.com.ar, 05/03/24
Más información:
La miopía es una enfermedad y no solamente anteojos
.
.
Estafas mediante Inteligenci Artificial
marzo 9, 2023
Cada vez hay más estafas con herramientas de IA, especialistas piden mayor regulación de los gobiernos
Por Todd Crawford.
Los estafadores están recurriendo cada vez más a la inteligencia artificial (IA) para estafar a objetivos desprevenidos con su dinero duramente ganado.
Según un informe del Washington Post, miles de víctimas han perdido millones de dólares a manos de estafadores que utilizan IA para imitar las voces de sus seres queridos que piden ayuda.
Un modelo de IA, desarrollado por Microsoft, llamado VALL-E que puede simular con precisión la voz de una persona después de analizar solo tres segundos de audio irrumpió en escena a principios de este año y se adaptó rápidamente para cometer fraude.
“VALL-E puede tomar una grabación de tres segundos de la voz de alguien y replicar esa voz, convirtiendo las palabras escritas en habla, con entonación y emoción realistas según el contexto del texto”, se lee en un sitio web oficial de VALL-E.
Los desarrolladores de la IA especulan que la tecnología podría usarse para aplicaciones de texto a voz de alta calidad y podría ayudar a los creadores de contenido cuando se combina con otros modelos de IA como GPT-3. Sin embargo, la tecnología se adoptó de inmediato para un propósito más oscuro, a menudo dirigido a los ancianos.
En una conversación con el Washington Post, Ruth Card, una abuela de 73 años, dijo que recibió una llamada telefónica de quien creía que era su nieto, Brandon, quien suplicaba dinero para pagar la fianza, lo que llevó a ella y a su esposo a correr al banco para asegurar los fondos.
“Definitivamente fue este sentimiento de… miedo. Que tenemos que ayudarlo en este momento”, dijo Card al Washington Post, y agregó que “nos absorbieron. Estábamos convencidos de que estábamos hablando con Brandon”.
Card descubrió la estafa antes de entregar el dinero, sin embargo, no todos tuvieron tanta suerte.
Pareja canadiense pierde $21.000
Según los informes, una pareja canadiense perdió 21.000 dólares canadienses a manos de un estafador después de recibir una llamada de quien creían que era un abogado que representaba a su hijo, quien afirmaba que su hijo fue encarcelado por matar a un diplomático en un accidente automovilístico.
Benjamin Perkin le dijo al Washington Post que los estafadores usaron una voz generada por IA que imitaba su voz que suplicaba dinero a sus padres. Más tarde, un hombre hizo un seguimiento de los padres de Perkin afirmando ser su abogado y diciendo que necesitaba $21.000 para los honorarios legales.
Perkin le dijo al Washington Post que la voz estaba “lo suficientemente cerca como para que mis padres realmente creyeran que hablaron conmigo”.
Creyendo que su hijo estaba en problemas, la pareja reunió el dinero y se lo envió al estafador como Bitcoin. Si bien admitieron que la llamada sonaba sospechosa, aun así enviaron los fondos y no se dieron cuenta de que habían sido estafados hasta que recibieron una llamada real de su hijo.
La pareja presentó un informe policial ante las autoridades canadienses, pero admitió al Washington Post: “El dinero se fue. No hay seguro. No hay forma de recuperarlo”.
Perkin especuló que los estafadores obtuvieron muestras de su voz a través de videos que publicó en YouTube sobre motos de nieve.
¿Viene la regulación?
Actualmente, hay una multitud de herramientas de IA accesibles al público en general que pueden crear un texto convincente, generar una imagen o un video con un simple aviso o, como en el caso de las estafas telefónicas, imitar de manera convincente la voz de cualquier persona.
Las llamadas para regular la tecnología están aumentando. Sin embargo, a diferencia del pasado, los gobiernos parecen reacios a tomar medidas. Mark MacCarthy, publicando para Brookings, escribió en marzo de 2020: “La regulación se considera un costo, un obstáculo, un retraso o una barrera que debe aceptarse a regañadientes como último recurso solo si es absolutamente necesario”.
En la década de 1970, cuando la industria de las tarjetas de crédito apenas estaba surgiendo, los consumidores estaban en apuros por cualquier transacción fraudulenta en sus tarjetas, incluso si su tarjeta había sido robada o perdida.
El Congreso de EE. UU. abordó el problema al aprobar la Ley de Facturación Justa de Crédito de 1974, que buscaba limitar la responsabilidad del titular de la tarjeta e impedía que las compañías de tarjetas de crédito traspasaran las pérdidas debidas al fraude a los titulares de la tarjeta.
La legislación inspiró confianza en la industria de las tarjetas de crédito y le permitió crecer hasta convertirse en un sistema sólido y confiable e inspiró la innovación.
“Sin embargo, los formuladores de políticas han olvidado este efecto secundario beneficioso de la regulación, prefiriendo dar rienda suelta a los actores de la industria para implementar tecnologías emergentes como mejor les parezca”, escribió MacCarthy.
La Casa Blanca publicó una «Guía para la regulación de aplicaciones de inteligencia artificial» en 2020, que estableció un marco para que los futuros legisladores elaboren legislación, sin embargo, no parece estar dando como resultado ninguna acción significativa.
La gente necesita confiar en la tecnología
A medida que las empresas continúan incorporando IA en sus productos y servicios, la atención de los legisladores se está desviando de la protección de datos a cómo el software utiliza esos datos.
Un libro blanco de 2020 titulado «Sobre la inteligencia artificial: un enfoque europeo para la excelencia y la confianza» buscó establecer un marco legal de IA y argumenta que la regulación es esencial para el desarrollo de la IA, inspirando confianza en los consumidores y estimulando la innovación.
El documento argumentó que a medida que la tecnología se convierte en una parte cada vez más central de todos los aspectos de la experiencia humana, las personas deben poder confiar en ella. “La confiabilidad también es un requisito previo para su aceptación”, argumentaron los autores del artículo.
Sin embargo, a pesar de la acción del gobierno, las nuevas IA no reguladas están inundando Internet, muchas disponibles de forma gratuita para cualquier persona, y los expertos predicen que el mercado de chips de IA crecerá exponencialmente hasta el final de la década.
A medida que los estafadores sigan adoptando la IA para realizar fraudes, la confianza en la tecnología seguirá deteriorándose, y los errores recientes solo han erosionado aún más esa confianza.
En febrero de este año, Google presentó Bard, un chatbot de IA que se lanzó como competidor de CHATGPT y que se volvió viral a fines de 2022 por su capacidad para generar texto convincente.
Sin embargo, un error fáctico generado por el chatbot de Alphabet, que se utilizó en un anuncio de lanzamiento de la tecnología, provocó que el precio de las acciones de la empresa cayera en picado en 100.000 millones de dólares.
En el anuncio, al bot se le presentó la pregunta: «¿Qué nuevos descubrimientos del telescopio espacial James Webb puedo contarle a mi hijo de 9 años?»
El chatbot escupió varias respuestas, sin embargo, una respuesta evidente fue incorrecta. El bot afirmó que el JWST podrá tomar las primeras imágenes de un exoplaneta, algo que logró el Very Large Telescope del Observatorio Europeo Austral en 2004.
La industria de la IA está fuera de control
Cynthia Rudin, profesora Earl D. McLean, Jr. de Ciencias de la Computación, Ingeniería Eléctrica e Informática, Ciencias Estadísticas, Matemáticas y Bioestadística y Bioinformática en la Universidad de Duke, le dijo recientemente a Wral Tech Wire que «la tecnología de IA en este momento es como un tren fuera de control y estamos tratando de perseguirlo a pie”.
Argumentó que las grandes empresas de tecnología no están incentivadas para crear herramientas éticas, sino que están incentivadas para generar ganancias.
«El problema es que cuando dicen cosas como ‘queremos democratizar la IA’ es realmente difícil creérselo cuando están ganando miles y miles de millones de dólares», dijo, y añadió que «por eso, sería mejor que estas empresas no fueran monopolios y que la gente pudiera elegir cómo quiere que se utilice esta tecnología».
Rudin dijo que los gobiernos «definitivamente deberían intervenir» y regular la tecnología, y señaló que «no es que no hayan recibido suficiente advertencia».
Ella señala que los sistemas de recomendación, la IA utilizada por numerosas plataformas para recomendar contenido, han estado en uso durante años, pero los gobiernos no les han impuesto ningún tipo de regulación y la gente tiene poco o nada que decir sobre cómo se usa la tecnología.
Cuando se le preguntó cuál es el peor de los casos, Rudin dijo: «La información errónea no es inocente».
“Hace un daño real a las personas a nivel personal. Ha sido la causa de guerras en el pasado. Piensa en la Segunda Guerra Mundial, piensa en Vietnam. Lo que realmente me preocupa es que la información errónea conduzca a una guerra en el futuro, y la IA será, al menos en parte, la culpable”, dijo.
Fuente: es.visiontimes.com, 08/03/23.
.
.