Faro de Vigo

Faro de Vigo

Contenido exclusivo para suscriptores digitales

Guillermo López Taboada: "Analizamos desde la evolución de un virus a la navegación de un barco de la Copa América"

El profesor e investigador lalinense ha recibido el Premio Nacional de Informática Ramón Llull 2020

Guillermo López (con corbata) fue recibido ayer por el alcalde y varios concejales de la corporación municipal de Lalín en el salón de plenos consistorial. // Bernabé/Ana Agra

El Concello de Lalín organizó ayer una recepción a Guillermo López Taboada, informático, profesor y director del spin off de la UDC Torusware, que acaba de recibir el Premio Nacional de Informática Ramón Llull 2020 que le otorgó la Sociedad Científica Informática y la Fundación BBVA.

-Enhorabuena por este premio. ¿Cómo ha recibido ese reconocimiento?

-Muchas gracias. La verdad es que con mucho orgullo y satisfacción por la empresa y por los fundadores, entre ellos yo. Es el premio al trabajo hecho en los últimos siete años y el reconocimiento de los resultados. Recibimos algún premio cuando éramos empresa alevín y estábamos empezando. Siempre consideré que eran reconocimientos para animar y para que nos conociese un poco más la gente. Este sin embargo es un premio diferente.

-Explíquenos a qué se dedican en su empresa.

-La empresa se dedica a ayudar a otras empresa o asociaciones a poder explotar los datos que poseen. El abanico de aplicaciones es tan grande que se puede aplicar a muchos ámbitos. Van desde aplicarlas al ámbito senómico. para conocer la evolución de un virus, a trabajar para una empresa que diseña barcos para la Copa América y necesita analizar datos de navegación. Pero también analizar datos de una tienda que quiere conocer su mercado y lo que buscan sus clientes. Ayudamos a descubrir tendencias en esos datos.

-Para poner un ejemplo estarían las Fake News, tan de moda ahora, porque su empresa participó en análisis de redes y de publicaciones de este tipo.

-En esos casos, más que analizar las noticias en sí o buscar expertos que las contrastasen, lo que hacíamos era buscar los comentarios de las noticias que se podían hacer en las redes sociales o en los periódicos electrónicos A partir de ahí creábamos perfiles de la gente que comenta. Lo que nos encontrábamos es que hay gente que comenta de todo y sabe de todo. A ellos los catalogamos como no expertos. Luego había otros que solo comentaban de un determinado tema. Por poner un ejemplo, si en un periódico hay un usuario que comenta de fútbol, medicina, economía... Con comentarios simples y con faltas ortografía, lo catalogamos como una persona a la que hay que hacer poco caso. Por contra, una persona sin faltas de ortografía que da datos completos con referencias, queda calificada como experta en ese tema. Esto tiene muchas aplicaciones.

-Una de ellas analizar su utilización política.

-En su momento nos encargaron ver si había redes de Vox publicando noticias. Querían saber si había algo automatizado detrás de ellas. Lo que descubrimos es que no había redes automáticas, sino gente motivada por un determinado tema. Por ejemplo, parecía que podía haber una red automatizada de críticas sobre un tema salarial pero no había un algoritmo detrás. Muchas veces le echamos la culpa a algo informático cuando no es así. Eso es detectable de forma rápida. A día de hoy es mucho más barato tener gente enardecida con un determinado tema, es decir, los humanos somos más bots que los algoritmos informáticos.

-Y más baratos.

-Sí, de hecho había ciertas campañas con cientos de miles de personas publicando sobre el tema, Un algoritmo informático que hiciese eso sería muy complejo y mucho más caro.

-Otro tema de actualidad es la crisis del coronavirus. Ustedes también han trabajado en este campo.

-Nosotros desarrollamos un software que está siendo utilizado por los expertos. Hacemos las plataformas para que los expertos sean más rápidos analizando los datos. Estos días salía una noticia de un investigador que analizó cómo es el Covid en Galicia en relación con España y otros lugares. Para ello utilizó un software que desarrollamos en la Universidad de A Coruña y que inicialmente creamos nosotros. Es como encontrar una aguja en un pajar. Hay muchos datos pero encontrar una pauta específica demuestra que viene de un punto en común y que no tiene relación con otros.

-¿Algún encargo curioso?

-Del trabajo analizando las Fake News nos salieron muchas anécdotas. Descubrimos por ejemplo muchos sesgos en noticias de determinados medios de comunicación que podían dar la vuelta o manipular alguna noticia de agencias, Es curioso porque después las agencias de noticias, como vieron nuestra capacidad de análisis, nos contrataron para ver qué personas estaban cogiendo sus noticias de agencias y no estaban pagando. Nunca sabes donde va a aparecer el negocio.

-Mirando hacia atrás y a un nivel más personal, ¿cómo acabó usted metido en todo esto?

-Cuando estaba estudiando en el instituto tenía interés por la informática y sabía que quería estudiar informática. Cuando acabé la carrera estábamos en el año 2.000, aquello que parecía iba a ser una hecatombe informática. En mi caso decidí sin embargo seguir estudiando, con un doctoramiento en el ámbito del procesamiento masivo de datos. Eso fue hace veinte años. Intuí que podría ser interesante pero no que acabaría teniendo tantas aplicaciones en estos momentos. Cada vez hay más datos y más información pero que el almacenamiento fuese tan grande es algo que vino a posteriori. A raíz de mi tesis y de entrar a dar clase en la universidad surgió a posibilidad de ayudar a otras empresas a organizar e interpretar sus datos.

Compartir el artículo

stats