Entrevista

Julián Isla: "Las advertencias contra la inteligencia artificial actual no tienen sentido, damos voz a charlatanes"

El ingeniero Julián Isla.

El ingeniero Julián Isla.

Daniel G. Sastre

El ingeniero Julián Isla es el responsable de Recursos de la Consultoría de Datos e Inteligencia Artificial (IA) de Microsoft España. También es padre de un niño con una enfermedad rara, el síndrome de Dravet, que al principio no se trató correctamente por un error de diagnóstico; él pronostica que las máquinas acabarán sustituyendo a los médicos. Tras su experiencia, creó en 2017 la Fundación 29, que busca utilizar la inteligencia artificial para una identificación precoz de este tipo de dolencias.

¿Estamos viendo solo el principio de la inteligencia artificial?

Sí. OpenAI ha sido muy audaz sacando al público ChatGPT. Las empresas tecnológicas ya teníamos tecnología similar, pero siempre hemos sido muy precavidos porque podía dar resultados erróneos, hacer que los usuarios cometan imprudencias. OpenAI realmente nos ha cambiado el paso. Ellos han dicho: los ciudadanos no son tontos. Que puedas utilizar un cuchillo para matar al vecino no significa que no puedas comprar cuchillos, porque entonces, si no tienes cuchillos, tampoco vas a poder cortar el pan u operar a un paciente. Es decir, la excesiva preocupación es un freno para el beneficio.

"Que puedas utilizar un cuchillo para matar al vecino no significa que no puedas comprar cuchillos"

¿Está de acuerdo con las advertencias de algunos expertos sobre la IA?

Con lo que tenemos ahora mismo, técnicamente no tienen sentido. La inteligencia artificial de ahora básicamente predice la siguiente palabra en una frase. Ya está. O sea, no sabe lo que está haciendo, no tiene contexto global y lo más importante, no tiene intención. La intención es algo que hace que los individuos, las especies, las civilizaciones, trabajen de forma más o menos ordenada para un fin común. Por ejemplo, el nuestro es reproducirnos, claramente. Pero esto no. No quiere decir que en un futuro no aparezca algo, probablemente con otro tipo de tecnología, que tenga capacidades intencionales. Podría pasar, no sabemos. Pero es como nos ha pasado con toda la tecnología que hemos tenido en el mundo. Cuando apareció la energía nuclear, evidentemente apareció enseñando los peligros directamente. Y poco a poco se fue regulando, y hoy tenemos electricidad más o menos barata. Los humanos somos muy malos haciendo predicciones, y el gran problema de la sociedad actual es que damos voz a charlatanes. Mira [Yuval Noah] Harari: dice que la inteligencia artificial es peligrosa, pero ¿qué sabe Harari? Es escritor, no científico, no hace experimentos. Tenemos una sociedad en la que hay gente que parece que sabe de todo y que se atreve a dictar el dogma.

¿Qué partido se le puede sacar a la inteligencia artificial en el apartado médico?

Pensando en qué profesiones pueden estar más impactadas por la IA que tenemos ahora mismo, yo siempre digo a la gente: si tú puedes hacer tu trabajo desde casa, y encima si no hablas con nadie durante el día, y te dedicas a hacer presentaciones y hojas de Excel y documentos en Word, lo tienes chungo. Un comercial lo tiene mucho menos. Los médicos están en un punto de riesgo, porque la información médica se multiplica de forma exponencial y ya es imposible que un médico sea capaz de digerirlo todo. Aunque piensen que sí, no es así. Y luego sucede otra cosa: el conocimiento se ha democratizado. Es decir, el paciente que llega a una consulta, si se lo prepara un poco, va a saber lo mismo que el médico. Incluso más, porque es su tema y le preocupa. Así que el mundo médico es particularmente sensible a este tipo de tecnología. Poco a poco, la tecnología irá ocupando espacio, porque estamos diseñados para que sea así.

"Harari dice que la inteligencia artificial es peligrosa, pero ¿qué sabe Harari? Es escritor, no científico, no hace experimentos"

¿Las máquinas acabarán sustituyendo a los médicos? 

Creo que sí. ¿Y por qué no? ¿Qué factor habría para que eso no suceda?

¿El laboral?

Sí, como Uber, como Airbnb. Al final es un tema de lo que prefieren los ciudadanos. Por supuesto habrá una resistencia atroz. Porque además la profesión médica está colegiada y es muy corporativista. Pero tal y como evoluciona esto, pues aparecerá una solución, posiblemente de la empresa privada, porque lamentablemente es donde se produce la innovación. Aterrizará generando una propuesta para valorar al paciente y los pacientes nos iremos detrás. Nos iremos primero los que tenemos una enfermedad severa. O sea, yo soy el gestor de la enfermedad de mi hijo. Yo tengo que cuidar de su información médica. Yo guardo su genoma. Yo calculo la dosis de sus fármacos. Yo coordino la actividad de los médicos. Si viene alguien y me ayuda a hacerlo, porque mi sistema de salud no lo hace, pues mejor. Es una tecnología resolviendo un problema. Y cuando los pacientes vean valor, irán, les va a dar igual si está regulado o no. 

¿De qué manera la inteligencia artificial puede mejorar el diagnóstico de enfermedades raras?

Mi hijo empezó a tener síntomas a los tres meses. Yo llegaba al médico y le contaba las cosas y veía que tecleaba. Yo pensaba que debía de haber un sistema por detrás en el que yo le contaba los síntomas y el sistema le decía al médico: esto puede ser esto, puede ser lo otro. Pero eso no existía y no existe ahora. Y es increíble cómo dejamos a los médicos que intenten encontrar diagnóstico para enfermedades raras. Hay entre 7.000 y 10.000 enfermedades raras. No es un número pequeño. Para diagnosticar una diabetes pues ahora mismo no hace falta, porque los médicos están muy acostumbrados, pero para diagnosticar una enfermedad rara donde en un país puede haber 10 pacientes, que tú vas a ver a uno en la vida o dos, si no lo haces con una herramienta, estás perdido. Hay cinco años de media para tener diagnóstico. Y luego que, pese a que el 80% de enfermedades raras son de origen genético, no tenemos un sistema nacional que analice la información genética y genere conocimiento de esa información.

El diagnóstico tardío en el caso de su hijo fue bastante catastrófico.

Sin duda. No sabemos el impacto que le produjo, pero en el caso concreto de mi hijo le estuvimos dando una fármaco contraindicado seis meses, en los peores momentos del neurodesarrollo. ¿Qué impacto ha tenido eso en que ahora no hable, no se comunique, tengamos que darle de comer y lleve pañales? Eso nunca lo sabremos porque no podemos rebobinar hacia atrás, pero todo parece indicar que no fue una acción correcta. Se habla mucho de los peligros de la IA. ¿Quién me protegió a mí y quién protegió al médico de tomar una mala decisión? Y no culpo al médico en absoluto, hizo lo que pudo con las herramientas que le dimos. 

"Se habla mucho de los peligros de la IA. Pero en el caso de mi hijo, ¿quién me protegió a mí y quién protegió al médico de tomar una mala decisión?"

¿Qué hacen en Fundación 29?

Vi que los problemas a los que se enfrentan los pacientes con síndrome de Dravet, síndrome de West, síndrome de Lennox Gastaut, síndrome de fibrosis quística, de Uschen, ELA… son los mismos. Con la ayuda de unos amigos, decidimos crear la fundación en 2017 con la idea de usar inteligencia artificial en el ámbito de la salud, y ahora esto se ha puesto de extrema relevancia. Nosotros decíamos que hacíamos IA hace seis años y bueno, la gente nos miraba así como un poco de lado. Y ahora de repente estamos en la cresta de la ola.

El lema de la fundación es ‘Los pacientes tienen los datos, los pacientes tienen el poder’.

Los datos lo son todo. En ChatGPT la clave de todo esto realmente es la letra T, que viene de ‘transformer’, que suena a personaje manga pero que realmente es un nuevo paradigma de cómo se hace la inteligencia artificial. Los ‘transformers’ son redes de atención: se enfocan en zonas particulares de las redes neuronales, las potencian, y eso ha permitido la explosión de los modelos de lenguaje. Y todos estos modelos de lenguaje hay que entrenarlos con datos. Si hay pocos o son de mala calidad, el modelo es peor. Todo parte de la necesidad de coger grandes conjuntos de datos validados para generar modelos. Y el problema que nos encontramos en Fundación 29, en estos seis años, es que hay pocos orígenes de datos en sanidad. Por varias razones: por las deficiencias de la Ley de Protección de Datos, porque los médicos y los hospitales no tienen incentivos para compartirlos y por los intereses económicos.

Suscríbete para seguir leyendo