Un mundo de casi ciencia-ficción está a la vuelta de la esquina y los expertos en robótica se plantean ya hasta dotar de sentido común a esas máquinas que nos harán la vida más fácil, pronostica Antonio Torralba, investigador y profesor del MIT. Los robots, según Torralba, que participó en un foro de la Fundación Ramón Areces, verán mejor que nosotros, conducirán con mayor seguridad y repondrán el contenido de nuestras neveras. La sociedad deberá decidir cómo adaptarse a esta nueva revolución.

-Señor Torralba. ¿Para qué necesitamos la visión artificial?

-La visión artificial es el sentido que da a las máquinas la inteligencia. Todos los sistemas biológicos de cierto nivel tienen sistema de visión que no deja de ser el sentido que más información te da acerca del mundo para anticipar de esta forma los acontecimientos.

-Se trata pues de dotar de ojos a las máquinas, ¿verdad?

-La visión artificial lo que hace de alguna forma es construir el cerebro de las máquinas para conectarlo a una cámara que funciona como un ojo.

-¿Intentan ustedes que los robots imiten nuestra visión?

-Que la imiten y que la superen. Los robots superarán la visión humana. El sistema visual humano tiene bastantes limitaciones, solo cuenta con dos ojos, y la inteligencia visual está también limitada por nuestra capacidad de memoria. Hay unas barreras biológicas que no tiene por qué tener un ojo artificial.

-¿Cómo detectan las cámaras de fotos las caras?

-La detección de caras llevó muchos años de investigación, los algoritmos que se usan hoy en las cámaras digitales se inventaron a principios de 2000 y lo que hacen básicamente es mirar la imagen de la cara trocito a trocito y decidir si en cada uno de esos trocitos hay una cara o no. Tienen que explorar las imágenes de esa forma sistemática pixel a pixel.

-Si lo hacen mediante un algoritmo no significa que las cámaras vean.

-El reconocimiento de objetos es complejo. Son sistemas similares a los usados para reconocer caras, van analizando trocito a trocito para decidir si ciertos objetos están ahí o no. Las caras resultaron ser fáciles de detectar y el resto de los objetos es más complejo porque no tienen ninguna intención de ser detectados. A estos algoritmos hay que darles ejemplos de todos los objetos que reconocen casi por fuerza bruta. Una máquina no es como un ser humano que aprende a base de pocos ejemplos, necesita muchos.

-O sea, que al comprobar que las matemáticas no resuelven todos los problemas se fueron a buscar soluciones a la biología.

-Los algoritmos más potentes son los que se llaman redes neuronales. Son de inspiración biológica. Los primeros intentaron ser modelos de cómo funcionan las redes de neuronas dentro del cerebro.

-Las máquinas nacen ciegas, ¿cómo se les enseña a ver?

-Con ejemplos. La máquina no razona sobre lo que ve, reconoce objetos y características. Los robots no tienen sentido común.

-¿Podrán tenerlo algún día?

-Sí. Se trabaja en ello.

-¿Y conciencia?

-No. Aún no entendemos lo que es la conciencia. Cuando la inteligencia artificial tiene que tomar decisiones morales es muy complicado. La máquina nunca va a tomar esa decisión, la tomaremos nosotros. La máquina por eso no va a ser responsable porque es inconsciente y es la consciencia la que te da la responsabilidad.

-¿Se puede devolver la vista a los ciegos con la visión artificial?

-Se pueden crear sistemas artificiales de visión que se conectan directamente al cerebro. Para ello hay que traducir la conexión entre la señal electrónica y la biológica. También se pueden crear asistentes artificiales que por ejemplo susurren al ciego lo que no puede ver. Se tratan de máquinas que interpretan el mundo visual.

-¿Cómo interactúan las máquinas con el entorno?

-De forma aún muy limitada. La interacción física aún no sucede porque los robots aún no han salido de los laboratorios.

-¿Qué utilidad tiene el big data en sus investigaciones?

-El big data es esencial en visión porque para entrenar a un sistema de visión hay que hacerlo con muchos ejemplos, hay que crear grandes bases de conocimiento que relacionen el mundo visual con el semántico y a partir de ahí tiene que aprender el ordenador.

-¿Cuándo podrán conducir los coches por nosotros?

-La tecnología está muy madura y todas las empresas están invirtiendo por esta conducción automática.

-¿Lo harán mejor que nosotros?

-Seguramente que sí. Un ojo artificial en un coche de conducción automática no tiene problemas de atención, ni de distracción, puede prestar atención a varios objetos simultáneamente y no tiene ángulos muertos ni se cansa.

-Los robots no tendrán que ir al oculista a graduarse la vista ni a operarse de miopía...

-Pero necesitarán otro tipo de ajustes y tendrán que recurrir a algún ingeniero para que les tunee algo.

-¿Cómo será pues la visión por ordenador?

-Ya es un área emergente muy prometedora con un presente muy claro en todos los dispositivos que tenemos. Servirá para todo: para la conducción automática, para el diagnóstico médico o para los robots asistentes en casa.

-Hábleme por favor de eso: de las camas, sillas, mesas o neveras inteligentes.

-La nevera será capaz de ver lo que se nos ha agotado y tomará la decisión de reponer lo que nos falta. Los robots se están haciendo inteligentes y tomarán decisiones que a nosotros no nos apetece tomar.

-¿Podrán llegar las máquinas a aprender a reaccionar como hacemos los humanos?

-Hoy en día no, pero ya hay ensayos para que las máquinas aprendan sin ejemplos relacionando lo que ven y lo que oyen.

-Si hay tantas acciones en las que vamos a ser sustituidos por los robots ¿qué haremos nosotros?

-Los robots nos van a asistir, no a sustituir. La sociedad será la que decida cómo adaptarse a esta revolución similar a la Revolución Industrial.