asuntos propios

“Si nos extinguimos será por nuestra estupidez”

“Me preocupa el uso indiscriminado de la IA donde el objetivo principal sea el dinero y no el impacto social. Hay que marcar líneas rojas”

El chileno Ricardo Baeza-Yates.   | // FDV

El chileno Ricardo Baeza-Yates. | // FDV / nÚRIA NAVARRO

NÚRIA NAVARRO

Estos últimos meses los cocineros de la inteligencia artificial (IA) firman manifiestos pidiendo frenar la cocción a riesgo de que nos mate a todos. ¿Chocante, no? El chileno Ricardo Baeza-Yates, investigador del Institute for Experiential AI de la Northeastern University, en Silicon Valley, y uno de los tres miembros del Consejo Asesor de IA del Gobierno de España que dimitieron en marzo por el acuerdo de colaboración con Abu Dabi para crear un centro de inteligencia artificial en Granada –”no quería legitimar algo que nunca se discutió”–, despeja dudas.

–¿No firma manifiestos?

–Este último, no. No creo que la IA nos vaya a destruir.

–Sam Altman, mente empresarial de OpenAI, y otros muchos sí.

–Pienso en varias razones. Una es que sea una maniobra de distracción. Si ponen sobre la mesa riesgos futuros, no prestamos atención a lo que está pasando ahora, que es muy grave, y pueden seguir haciendo la suya. No quieren regulación. También es posible que algunos firmantes teman realmente perder el control, como Geoffrey Hinton, pionero del deep learning (aprendizaje profundo).

–¿Usted, qué dice?

–Si nos extinguimos, no será por la IA sino por la estupidez humana. Una cosa es que un chatbot te diga que te va a exterminar y otra, que tenga la posibilidad de accionar a la humanidad para que eso ocurra. Todo esto plantea una pregunta filosófica: ¿pueden hacer algo mejor que nosotros mismos?

–¿Pueden?

–Si aprenden de nosotros, la respuesta es no. En el ajedrez, donde la máquina supera al humano, el dominio del problema es cerrado y las reglas, conocidas. Pero no podemos escribir el contexto completo de cualquier problema.

–Entonces, ¿qué le alarma exactamente?

–Contestar a esta pregunta es parte del problema. Todo está integrado.

–Disculpe.

–No pasa nada. Me preocupa el uso indiscriminado de la IA donde el objetivo principal sea el dinero y no el impacto social. Existe una base de datos con más de 2.000 ejemplos de mal uso que afecta a millones de personas.

–2.000 y estamos en los albores.

–Es como una bomba de racimo. Por otra parte, se está configurando una concepción del ser humano que procede de una distribución de probabilidades matemáticas.

Un hombre o mujer promedio.

–Y pensar que somos un promedio es un problema. Normalizamos a las personas en el sesgo de exposición. Wikipedia, por ejemplo, está disponible en 300 idiomas, cuando hay 7.000 vivos. No se toman en cuenta a los distintos. Homogeneizamos contenido, formas de comunicarnos, valores. Estamos perdiendo conocimiento. Y eso también tiene repercusión en becas, préstamos, seguros, la aplicación de la justicia. Sin contar con que el 40% de la población no están conectados a internet. También me preocupa mucho que puedan aumentar los problemas de salud mental.

–¿En qué sentido?

–El uso de los chatbots como si fueran personas. En China y EE UU hay gente que habla con sus seres queridos muertos. [Un deadbot] es solo un programa que entiende lo que dices y, usando probabilidades de contextos que encuentran en la web, contestan como loros, pero las personas empiezan a creer que son humanos.

–Pues ya me dirá... No moriremos pero nos desdibujaremos.

–Es crucial una regulación estricta. Al contrario de lo que algunos dicen, las buenas regulaciones generan más innovación. Hay que marcar líneas rojas. La ACM –la red de informáticos, investigadores y profesionales más grande del mundo– publicó los nueve principios de la IA responsable. Yo empujé uno – legitimidad y competencia– que pide demostrar que el beneficio siempre sea superior al daño, y certificar que se tiene competencia en el dominio del problema.

–¿Y qué hay de la destrucción de empleo masiva?

–No me preocuparía si todo el mundo recibiera un salario universal. Mi utopía sería un mundo donde toda la gente se desarrollara en lo que le gustara y las máquinas hicieran el resto.

–¿Y si todo sale mal? ¿Y si la estupidez gana la partida?

–En todo caso, no sería antes de 30 años.

–Eso está a la vuelta de la esquina.

–Creo, como Peter Drucker, que la mejor m”anera de predecir el futuro es crearlo. Con educación, conciencia, manejo de los sesgos y una perspectiva científica y no (casi) religiosa de la IA.