El mundo 4.0

Inteligencia Artificial: riesgos y desafíos asociados a su adopción generalizada

Inteligencia artificial: riesgos y desafíos asociados a su adopción generalizada

Inteligencia artificial: riesgos y desafíos asociados a su adopción generalizada / FDV

Francisco Yáñez

Francisco Yáñez

Los sistemas de IA con una inteligencia que compite con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, como demuestran numerosas investigaciones y han reconocido los principales laboratorios de IA. Como se afirma en Los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados. Desgraciadamente, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses se ha visto a los laboratorios de IA enfrascados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable.

Así comienza una carta abierta publicada por Future of Life Institute y firmada por el fundador de Tesla y SpaceX, Elon Musk, junto con más de mil líderes tecnológicos, para llamar la atención sobre el inmenso riesgo que suponen los últimos descubrimientos y creaciones en el mundo de la Inteligencia Artificial, y para instar a poner una pausa en los grandes experimentos que se están iniciando. La carta continúa haciendo una exposición de las cuestiones que deberíamos plantearnos, alrededor de las cuales subyace una reflexión fundamental: ¿Debemos arriesgarnos a perder el control de nuestra civilización? Para este grupo de expertos tecnológicos, estas decisiones no deben delegarse en personas o empresas sobre las cuales no tenemos ningún tipo de control. Los sistemas de IA potentes sólo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables.

La desinformación en internet se multiplicará con la IA

Los Principios de Asilomar, a los que se hace referencia, son una lista de 23 recomendaciones que reciben ese nombre por el lugar de California (EE. UU.) en el que tuvo lugar una conferencia de expertos tecnológicos organizada con el objetivo de definir las pautas a seguir para lograr que el desarrollo de esta tecnología sea un beneficio, y no un problema, para el mundo. En esta lista destacan puntos clave como (8) Transparencia judicial: cualquier intervención de un sistema autónomo en una decisión debería ir acompañada de una explicación satisfactoria y auditable por parte de una autoridad humana competente; (9) Responsabilidad: los diseñadores y desarrolladores de sistemas avanzados de IA son depositarios de las implicaciones morales de su uso, mal uso y acciones; (11) Valores humanos: los sistemas de IA deberían ser diseñados y operados para que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural; (13) Libertad y privacidad: la aplicación de la IA a los datos personales no puede restringir de forma poco razonable la libertad, real o sentida, de las personas; (18) Carrera armamentística: debería ser evitada cualquier carrera armamentística de armas autónomas letales. El día en que las guerras se luchen entre máquinas será mucho más fácil que se produzcan, ya que hoy son las pérdidas humanas las que frenan a los países; (22) Automejora recursiva: los sistemas de IA diseñados para automejorarse recursivamente o autorreplicarse de una forma que pudiera llevar al rápido incremento en su calidad o cantidad deben estar sujetos a unas estrictas medidas de control y seguridad; (23) Bien común: la superinteligencia debería ser desarrollada sólo en servicio de unos ideales éticos ampliamente compartidos y para beneficio de toda la Humanidad, más que para un Estado u organización.

Europa tendrá la primera ley de IA del mundo

Uno de los riesgos más acuciantes de la Inteligencia Artificial, según un estudio de la Universidad de Stanford, es utilizarla al servicio de la desinformación en Internet, lo que le confiere el potencial de convertirse en una amenaza para la democracia y en una herramienta para el fascismo. Los deepfake, videos generados sintéticamente con tecnología basada en IA que recrean secuencias falsas pero realistas, en las que se busca modificar la apariencia física e incluso la voz de las personas y hacerles decir o hacer algo que nunca dijeron o hicieron, y los bots online, que manipulan el discurso público fingiendo consenso y difundiendo noticias falsas, aumentan el peligro de que los sistemas de IA socaven la confianza social. Esta tecnología puede ser utilizada por criminales, extremistas ideológicos o simplemente grupos de intereses especiales, con el fin de manipular a las personas.

Recientemente, el Pleno del Parlamento Europeo ha ratificado la primera ley de Inteligencia Artificial del mundo que, tras ser refrendada por el Consejo de la Unión Europea, tendrá que desplegarse a nivel estatal con una normativa y un marco regulatorio definido. En este escenario, el trabajo de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA), que tiene su sede institucional en la ciudad de A Coruña y a su Universidad (UDC) como principal activo, será fundamental para supervisar, concienciar y asesorar en toda España sobre los riesgos, y también las oportunidades, que hay detrás de la IA, con el objetivo de garantizar el buen uso y desarrollo de sus algoritmos. Ciertamente estamos en una fase temprana de esta nueva tecnología, pero para tomar decisiones no podemos esperar a que sea una tecnología madura y adoptada de forma general, pues sería demasiado tarde. Stephen Hawking, en su libro póstumo “Breves respuestas a las grandes preguntas”, nos dejó una reflexión personal sobre el desarrollo futuro de la inteligencia artificial. El físico comparó su irrupción con la del fuego, que fue incontrolable para los primeros humanos hasta que inventamos el extintor. Aunque, si bien el impacto a corto plazo de la IA depende de quién la controla, el impacto a largo plazo es más preocupante, pues depende de si realmente se podrá controlar o no. El riesgo real no es la malicia, sino la competencia. Sin duda, la humanidad tiene a su alcance un futuro próspero gracias a los potentes sistemas de IA que estamos creando, pero es necesario dar a la sociedad el tiempo, y la oportunidad, de adaptarse.

Suscríbete para seguir leyendo