Faro de Vigo

Faro de Vigo

Contenido exclusivo para suscriptores digitales

Miguel Luengo-Oroz Jefe de científicos de big data del laboratorio Global Pulse de la ONU

Miguel Luengo-Oroz: "Los ciudadanos desconocemos cómo funciona la economía del dato, hace falta transparencia"

"Estamos en el momento de dirigir nuestro desarrollo tecnológico para lograr un impacto social y no sólo económico"

Miguel Luengo-Oroz. mara villamuza

Miguel Luengo-Oroz imagina un futuro en el que las máquinas estén al servicio de los humanos y no al revés, como predican muchísimas novelas de ciencia ficción. Jefe de los científicos del big data en el laboratorio Global Pulse de la ONU, que se dedica a explorar las amplias posibilidades de estas nuevas tecnologías, sus análisis, basados en algoritmos y en enormes bases de datos, han servido para ayudar en campos de refugiados o a los afectados por los terremotos de Japón y Haití.

-Uno de sus proyectos fue crear un robot para escribir poesía. ¿Cómo fue aquello?

-Hice Ingeniería de Telecomunicaciones en Madrid y luego me fui a Francia, donde terminé Ingeniería en la Escuela de Ingenieros de Minas y además hice un máster en ciencias cognitivas. La temática que exploraba era la creatividad artificial y si la inteligencia artificial puede tener procesos creativos como los humanos. Así que ese año desarrollé un robot que pudiera escribir poesía.

- ¿Y funcionó?

-Bueno, de ahí salió algo (ríe). En teoría era poesía al estilo de William Blake (vuelve a reír). Ese año me dediqué a estudiar temas de neurociencia y ciencias cognitivas. Luego hice el doctorado en Ingeniería Biomédica, sobre todo en análisis de datos y de desarrollo de la vida. Cómo de una célula nacen dos, luego cuatro, luego ocho? y de ahí las células empiezan a organizarse y se forman órganos e individuos. Más tarde estuve unos meses en la Singularity University de la NASA, en California. Formé parte del primer grupo español que fue allí.

- Y de ahí, lanzado hacia la ONU.

-Fue en 2011 cuando me fui a Nueva York a trabajar en Global Pulse, un departamento de la ONU que surgió a raíz de la crisis financiera, y que nació porque entre 2007 y 2008 muchos países perdieron en meses, en término de desarrollo, lo que habían tardado años en ganar. Entonces el G-20 le pidió a Naciones Unidas que estableciera algo que pudiese tomar el pulso al planeta, que pudiese utilizar las herramientas que usa el sector privado. Fui la primera persona de perfil técnico que se incorporó al equipo. Hoy somos más de sesenta personas divididas entre Nueva York, Yakarta y Kampala.

-¿Abandonó entonces el mundo de los robots?

-Al final está todo conectado. Yo, antes, durante el doctorado, buscaba patrones en células que se movían formando órganos, y ahora buscamos patrones en imágenes satélites de crisis humanitarias. Hay una analogía. Mi equipo es multidisciplinar, trabajo con gente de todos los sectores. Como seguridad alimentaria, de salud, de emergencias o de clima. La idea es aprender a escuchar todas esas disciplinas y transformar eso en problemas que se puedan resolver con las técnicas, porque las tecnologías son una herramienta.

-Da la impresión de que la inteligencia artificial (IA) ha explotado estos últimos meses.

-Por un lado, ha llegado el big data, y en nuestro día a día estamos produciendo constantemente señales que se convierten en datos. Por otro, el desarrollo de la capacidad de computación ha crecido mucho. Otra tercera pata es que hay unos algoritmos que se habían ideado hace décadas y que, de repente, se ha probado que cuando los alimentas con muchos datos y tienes mucha posibilidad de computación dan unos resultados magníficos en unas tareas muy concretas.

-¿Como cuáles?

-Como las de reconocimiento de fotos. Si les das suficientes ejemplos funcionan muy bien. También en tareas de traducción, porque hay bastantes ejemplos de traducciones que pueden tomar. Tienen mucha base de datos. Funcionan muy bien para transformar el audio en texto. Y cuando los entrenas en cosas muy determinadas, como, por ejemplo, jugar al ajedrez. De repente, ha aumentado el rendimiento para esas tareas tan concretas y esto puede hacer que mejoremos la productividad en determinados ángulos. Por eso se han desarrollado los asistentes virtuales o la optimización logística. Ahora estamos en un momento en el que tenemos que dirigir ese desarrollo tecnológico hacia aplicaciones que tengan un impacto social y no sólo económico. También tenemos que mirar en qué casos habrá que regular estas herramientas. Lo que no puede pasar es que aquellos que desarrollan las tecnologías hagan un "outsourcing" (externalización) total de sus implicaciones éticas y morales, como podría pasar con armas autónomas, por ejemplo. Algo que tendría que pasar es que todos los científicos de datos tengan un código moral, como lo tienen los médicos.

-¿No lo hay ya?

-No. Históricamente ha habido propuestas en campos generalistas de la ingeniería, pero no específicamente sobre ciencia de los datos e inteligencia artificial. Hace muy pocos meses varias figuras de Estados Unidos lo propusieron.

-¿Llegaremos a ver máquinas que sean más inteligentes que los humanos?

-La de las máquinas no es de una inteligencia generalista. Pueden ser mejor que un humano jugando al ajedrez o buscando en una base de datos como lo es Google, pero no pueden improvisar. El humano está diseñando el universo en el que viven las máquinas. Yo veo la inteligencia artificial como aumentar las capacidades humanas, no sustituirlas. El debate tenemos que dirigirlo hacia la utilidad. Como decía uno de los altos directivos de Facebook, no puede ser que las mentes más brillantes de mi generación estén trabajando en que la gente haga clics en anuncios de internet. Vamos a pensar y utilizar esos recursos tecnológicos en hacer mejores diagnósticos médicos, en quitar los atascos de las ciudades, en optimizar la agricultura? Y al final, si de verdad se aumenta la productividad, hay que redistribuir la riqueza para que esto sirva para tener más igualdad.

-Usted forma parte de un grupo en España que está preparando una estrategia sobre inteligencia artificial, ¿en qué consiste?

-El Gobierno formó un grupo de expertos para elaborar un Libro Blanco sobre la estrategia de inteligencia artificial en España, estamos trabajando. Con el cambio de Gobierno ha habido una pequeña parada, pero esperamos que antes de final de año esté listo.

-¿Pero puede avanzar algo de ese trabajo?

-Entre quince y veinte países en todo el mundo han publicado ya sus estrategias. Es una carrera. EE UU, China, Reunido Unido, Japón, Canadá y Francia lo han hecho. Éste será un primer paso para ver qué temáticas hay que tocar, ver cuáles son los sectores de interés, las capacidades que hay, cuáles son los principios éticos a los que debemos ir, cómo aprovechar el papel de España en el mundo para ser competitivos?

-¿Qué consecuencias puede haber de no usar éticamente la inteligencia artificial?

-Un caso muy claro que necesita de regulación internacional son las armas autónomas. Puede haber otros como cuando los algoritmos toman decisiones automáticas que puedan tener un impacto clave en la vida de las personas; si te concedo un préstamo o no. Una cosa que hay que fomentar es que las decisiones de los algoritmos puedan ser explicables, saber cuáles son las razones subyacentes para tomar esas decisiones. Imagine que usamos un software para seleccionar personal y ese programa aprende de toda la gente que tienes en la empresa del pasado. Pues resulta que si había más hombres es probable que haya un sesgo y el software te proponga más hombres. Entonces, hay que diseñar algoritmos e introducir los datos de manera que no haya esos sesgos. Esto nos lleva a dos cosas. Primero, que necesitamos equipos más multidisciplinares que entiendan la problemática. Y, segundo, que haya diversidad. De género, de culturas, de conocimientos... para explotar todas las posibilidades. La mayoría de productos que utilizan esta tecnología están creados por un tipo de perfiles masculinos de Silicon Valley y esto limita el rango de aplicaciones posibles y su uso para resolver problemas tanto globales como locales.

-Ustedes en la ONU han creado un programa para controlar los campos de refugiados. ¿En qué consiste?

-Ahora, los analistas cuentan de forma manual las tiendas o estructuras en campos de refugiados. Nosotros, con la agencia UNOSAT (la agencia de satélites de la ONU), lo que hacemos es que en lugar de sustituir al analista humano, le ayudamos a través de inteligencia artificial a ir más rápido. No puedes sustituir al humano. La precisión es crítica.

-¿Qué implicaciones prácticas tiene?

-Esa información se da a la gente que está sobre el terreno y sirve para dimensionar aspectos logísticos. Cuánta gente hay, cuánta comida o agua hay que repartir.

-También han hecho otro proyecto sobre terremotos. ¿Cómo funciona?

-Por ejemplo, en el caso del terremoto que hubo en septiembre en México hay información de bases de datos de big data, como cuántos móviles conectados había en un sitio, lo que sirve para saber hacia dónde va la gente tras un terremoto. También analizamos la información financiera. Cuánto tiempo tardan las ciudades afectadas por el terremoto en volver a la actividad que tenían antes, y esto lo estamos haciendo de la mano de Telefónica y BBVA y el Instituto Nacional de Estadística de México (INEGI). Esto vale para las políticas públicas que se pueden destinar a la reconstrucción.

-¿En qué están trabajando ahora?

-Miramos información en redes sociales para saber cuándo la gente habla, por ejemplo, de vacunas. En este caso lo hemos desarrollando en Indonesia y miramos cuándo la gente pone mensajes que relacionen las vacunas con algo más como, por ejemplo, el autismo. Si eso pasa, el Ministerio de Salud puede decidir si va a contestar o no va a contestar. En otro proyecto en Brasil miramos mensajes discriminatorios o de odio contra gente con HIV o con poblaciones LGTB. Ésa es una forma de medir para luego evaluar cómo puedes reaccionar. Tardas tanto tiempo en crear la tecnología como en definir el problema. La parte difícil es poner a todas las personas que están involucradas en torno a la mesa y que se entiendan. Que el ingeniero entienda al experto en vacunas y se entiendan con el que trabaja en comunicación. Hace falta más gente que tenga capacidad de entender y empatizar.

-Hace unos años decide usted lanzarse a un proyecto empresarial y forma una compañía ligada con los videojuegos y la detección precoz de casos de malaria. ¿Cómo fue eso?

-Lo lancé en 2012 y la idea era presentar el concepto de diagnóstico colaborativo. Digitalizamos muestras biomédicas de malaria, eso se hace con un teléfono móvil y un microscopio fabricado con impresión 3D. Luego se sube a la red y se distribuye a una aplicación móvil que es el juego, Malaria Spot.

- ¿Pero cómo se le ocurrió?

-Antes del robot poeta había hecho un proyecto de inteligencia artificial sobre imágenes médicas sobre la malaria. Yo estaba en Francia y todos los años en los alrededores de los aeropuertos se morían entre diez y veinte personas de malaria, el hospital carecía de un sistema para detectar esos casos. La gente iba enferma al médico de cabecera, que lo que menos se esperaba es que tuviera malaria.

-¿Y cómo va el proyecto?

-Hasta la fecha han jugado más de cien mil personas en cien países diferentes. Desde hace un año hemos creado una empresa que hace soluciones de telemedicina.

-¿El juego cómo funciona?

-Si descargas la aplicación recibirás unas imágenes tienes que clicar en ellas. Nosotros las recogemos con un algoritmo para saber si está infectado o no. En el juego vas avanzando niveles, y la idea es encapsular en un juego las tareas digitales que se corresponden con la parte del protocolo de análisis médico. Es como si hubiera radiografías y trazar dónde se ha roto el hueso. A principios del año que viene comenzaremos con la comercialización de estos servicios de diagnóstico, no sólo de malaria, también de imágenes de posible retinopatía diabética, anatomía patológica?

-Ahora hay otro debate abierto, y es que hay mucha gente que no quiere que se usen sus datos, por ejemplo, los que suben a internet o redes sociales.

-Lo que quiero es que los ciudadanos podamos decidir para qué se usan nuestros datos. Veo un futuro en el que nuestros hijos digan, bueno, los datos de salud los comparto para temas de investigación? Pero tenemos que entender qué está pasando. Los ciudadanos desconocemos cómo funciona la economía del dato y realmente debería haber más transparencia y desde el conocimiento cada uno decidir para qué valen sus datos y para qué no. Esas aplicaciones, luego, tienen que estar alineadas con los derechos humanos. Tienen que transmitir los valores morales y éticos en los que nosotros creemos. Es importante mirar el impacto social y no sólo el económico de estas tecnologías.

- ¿Cómo se imagina el mundo en un futuro? ¿Cohabitaremos con los robots como en una novela de Isaac Asimov?

-Lo veo con optimismo. La idea es dirigir el desarrollo tecnológico y de inteligencia artificial a un lugar en el que amplifican a los humanos por sus valores morales y éticos. No hacia un lugar al que se reemplazan o cohabitan con nosotros. La clave es que toda esta nueva generación de riqueza se redistribuya entre la gente y no valga para aumentar las desigualdades.

-¿Cómo están los distintos países en la carrera de esta nueva economía hacia la inteligencia artificial?

-China y Estados Unidos están invirtiendo mucho dinero para ser pioneras en sus sectores económicos de gran interés. Francia, por ejemplo, ha puesto los valores éticos por delante también con los económicos. Es un movimiento interesante.

Compartir el artículo

stats