Entrevista | Marcos Fernández Pichel Premio de Investigación Ernesto Viéitez Cortizo 2022

“Nuestro sistema pretende evitar daños personales por la desinformación en salud”

“Nos parece importante evaluar también hasta qué punto los modelos como el ChatGPT también emiten informaciones incorrectas y compararlo con los servidores tradicionales”

Marcos Fernández (centro), con dos miembros de su grupo de investigación..

Marcos Fernández (centro), con dos miembros de su grupo de investigación.. / FdV

Marcos Fernández Pichel tiene 25 años y es uno de los investigadores que recogerá hoy en Santiago uno de los Premios de Investigación Ernesto Viéitez Cortizo 2022 con los que la Real Academia Galega de Ciencias (RAGC) reconoce la investigación en los distintos campos. El investigador cruceño ha sido reconocido en la modalidad de jóvenes menores de 30 años por un sistema de inteligencia artificial (IA) capaz de detectar la desinformación relacionada con la salud en el medio digital. La irrupción de la pandemia cuando comenzaba su tesis, a la que siguió una cantidad ingente de bulos y noticias falsas, terminó determinando su trabajo doctoral. Su sistema fue publicado el pasado año en la revista “Engineering Applications of Artificial Intelligence” y su marco experimental fue la Text Retrieval Conference (TREC) de 2021, congreso de referencia mundial en la evaluación de sistemas de búsqueda organizado en forma de competición con múltiples retos, promovido por el National Institute of Standards and Technology (NIST) y el Departamento de Defensa de Estados Unidos.

–¿Cuál es la línea de investigación de su tesis?–Estudio la detección de desinformación online relacionada con la salud. Para eso, utilizo inteligencia artificial, tecnologías de recuperación de información y tecnologías del procesamiento del lenguaje natural.–¿Hasta qué punto es peligrosa la desinformación cuando hablamos de temas de salud?

–Una de las justificaciones más importantes que hacemos siempre es que este es un proyecto muy aplicable y que si funciona, lo que evita al final son daños personales. Durante la pandemia lo hemos visto. No paran de salir noticias de gente que se automedicó al ver bulos en internet sobre medicamentos que decían que te protegían frente al COVID-19 o te curaban y que al final acabó con una intoxicación o el niño que se quedó ciego porque vio que si se tomaba no se qué se protegía del COVID.

–¿Cómo surge la idea de desarrollar este sistema capaz de detectar la desinformación relacionada con la salud en los medios digitales?

–Surgió a raíz del COVID-19, que prácticamente comenzó al mismo tiempo que yo empezaba con de mi tesis de doctorado, en 2020. En aquella época comenzó a surgir una gran cantidad de noticias falsas, desinformación e incertidumbre acerca de qué era lo correcto respecto a los tratamientos para el COVID. La comunidad científica vio que había una necesidad de detectar estas informaciones falsas o erróneas y, de hecho, se crearon muchos retos internacionales para detectar esa desinformación. Nosotros participamos en algunos de estos. Llevamos tres años participando en la Text Retrieval Conference (TREC), en la que se dan cita las mejores universidades del mundo de nuestra área. En 2021, quedamos terceros con este sistema de IA.

–¿Cómo funciona el sistema?

–En este sistema de IA lo que tratamos de determinar, a partir del contenido de las páginas web, es si el resultado de una búsqueda médica que se hace en un buscador es desinformación o no. Para eso, utilizamos técnicas de inteligencia artificial como las de ChatGPT, tan popular hoy, basadas en Big Linguistic Models (modelos de lenguaje extenso). La tecnología que empleamos nosotros es equivalente a la del ChatGPT y lo que hacemos es conseguir que ese tipo de inteligencia artificial aprenda a catalogar como correcta o incorrecta la información relacionada con la salud.

–¿Cómo se implementaría?

–Es un sistema que reordenaría los resultados de las búsquedas. Cuando hacemos una búsqueda en cualquier buscador, este nos da una serie de resultados y ninguno de estos está libre de contener desinformación, aunque cada vez más los grandes actores, como Google, son conscientes de la importancia de filtrar las informaciones no correctas. Lo que intenta nuestro sistema es reproducir el comportamiento de los buscadores, produciendo un ranking de resultados, pero siempre intentando promocionar los correctos y creíbles a través de la estimación que se hace con la inteligencia artificial y filtrando los incorrectos. Esto sería de aplicación directa. Por ejemplo, lo podrían utilizar administradores de páginas web que quieran filtran la información, moderadores de redes sociales o los grandes actores como buscadores que quieran limpiar su página.

"Tendremos inteligencias artificiales muy buenas en algo específico que aliviarán nuestro trabajo, pero no nos sustituirán"

–¿Cuáles son los siguientes pasos en el desarrollo de este sistema?

–Nos parece importante evaluar también hasta qué punto los nuevos modelos como el ChatGPT también emiten desinformación, ya que la gente los utiliza como los buscadores convencionales para preguntarles cosas como si se puede tomar un tratamiento determinado para la migraña, por ejemplo. Estamos realizando esa evaluación y el principal objetivo sería determinar cuánta desinformación emiten este tipo de modelos y compararla con los buscadores tradicionales.

–¿Han cuantificado la información falsa sobre salud que circula por Internet?

–No hemos hecho una estimación de ese tipo, aunque es un tema que tenemos abierto porque los médicos nos han propuesto, de cara al futuro, poder determinar no solo eso sino también cuáles son las áreas o temáticas que arrojan más desinformación.

–En general, la IA despierta recelo. ¿Por qué?

–Creo que en parte, por desconocimiento porque es algo que está surgiendo y muchas veces también por desinformación propiamente dicha, por falta de conocimiento de lo que es. Los médicos, por ejemplo, creen que si hay un sistema que haga recomendaciones médicas mejores que ellos podría llegar un punto en que el sistema acabase sustituyéndolos.

–¿Esto sería realmente posible?

–Hacia donde se dirigen las investigaciones o hacia donde queremos que se dirijan quienes trabajamos en este campo no es hacia una IA que sepa hacer de todo. Tendremos, y ya estamos teniendo, unas inteligencias artificiales muy buenas en algo específico y que pueden aliviar el trabajo de un humano, pero que no lo van a sustituir. En este caso siempre vamos a necesitar el trabajo de los médicos para que sigan contrastando las evidencias científicas para ver que algo sea correcto o incorrecto para que luego el sistema pueda la correcta detección automática de la desinformación.

Suscríbete para seguir leyendo