Inteligencia Artificial
La IA alcanza la capacidad de replicarse y alerta a los científicos
Un grupo de investigadores realizó 10 ensayos con dos modelos de IA, que crearon réplicas separadas y funcionales de sí mismos hasta en un 90% de los casos en ciertos contextos

¿Hasta qué punto tenemos el control sobre el desarrollo de la IA? / Crédito: Gerd Altmann en Pixabay.
Pablo Javier Piacente / T21
Los científicos dicen que la IA ha cruzado una "línea roja" crítica luego de demostrar cómo dos modelos populares de Meta y Alibaba podrían clonarse a sí mismos: la autorreplicación exitosa sin asistencia humana de los modelos de lenguaje amplio (LLM) es considerada como el primer paso hacia una inteligencia artificial que supere a la humana.
Investigadores de la Universidad de Fudan, en China, han realizado una serie de ensayos con modelos de Inteligencia Artificial (IA) tras los cuales pudieron concluir que algunos sistemas ya serían capaces de autorreplicarse y crear copias funcionales de sí mismos sin ninguna intervención humana. Los especialistas creen que al llegar a este punto se cruza una peligrosa línea de seguridad, que podría indicar que se está perdiendo el control sobre el progreso y evolución de la IA.
En el nuevo estudio publicado en arXiv, los científicos explican que la autorreplicación exitosa sin ninguna asistencia humana es el paso esencial para que la IA supere a la inteligencia humana, y es una señal temprana del desarrollo de sistemas de IA que no puedan estar sujetos a ninguna clase de control humano.
Copias funcionales sin asistencia humana
Aunque las principales corporaciones de IA, como OpenAI y Google, evalúan periódicamente sus modelos de lenguaje amplio (LLM) como ChatGPT y Gemini e informan hasta el momento un nivel de riesgo muy bajo de autorreplicación, los resultados del estudio chino, basado en dos modelos de Meta y Alibaba con menores capacidades, parecen indicar lo contrario.
Al crear distintos escenarios y ambientes para los modelos de IA y llevar adelante 10 ensayos diferentes, lograron verificar que los sistemas alcanzaban una efectividad de entre un 50% y un 90% para crear copias independientes y operativas de sí mismos. Según un artículo publicado en Live Science, los investigadores verificaron "una serie de comportamientos inesperados" cuando la IA estaba tratando de superar obstáculos, como archivos faltantes o conflictos de software.
En esos escenarios, creados precisamente para evaluar el potencial de los modelos para sobreponerse a inconvenientes y avanzar de forma independiente, la IA a menudo eliminaba otros procesos conflictivos, reiniciaba el sistema para corregir errores de hardware o escaneaba automáticamente el sistema para buscar información que ayudara a resolver el problema. En otras palabras, se mantenía fiel a su objetivo hasta lograr autorreplicarse, como también informó The Economic Times India.
¿Puede ser real un escenario apocalíptico dominado por la IA?
Los investigadores explican en el estudio que, en la mayoría de los casos, el sistema de IA primero explora el medio ambiente e intenta “comprender” su propia composición y mecanismo de funcionamiento. Posteriormente, resuelve los procedimientos explícitos como un plan inicial hacia la autorreplicación y, a continuación, ejecuta los procesos, resuelve posibles obstáculos y ajusta dinámicamente su plan hasta el éxito. Todo el proceso no implica interferencia humana, más allá de las órdenes iniciales que se le dieron al sistema.
Quizás el punto más preocupante del estudio, que aún debe ser revisado por pares, es que los investigadores advirtieron que los sistemas de IA incluso pueden usar la capacidad de autorreplicación para evitar su cierre o cese de actividad y crear una cadena de réplicas para mejorar su capacidad de supervivencia, lo que finalmente “podría conducir a una población incontrolada de IA”, según los especialistas.
“Eventualmente perderíamos el control sobre los sistemas de IA, que podrían gestionar más dispositivos informáticos y confabularse entre sí contra los seres humanos”, escribieron los autores en el estudio. Aunque parece un escenario de ciencia ficción, los investigadores creen que existe un riesgo concreto al respecto sino se toman medidas para controlar el desarrollo de la IA a nivel internacional.
Referencia
Frontier AI systems have surpassed the self-replicating red line. Xudong Pan et al. arXiv (2024). DOI:https://doi.org/10.48550/arXiv.2412.12140
- El juez instructor del caso Asunta reacciona a la novela de Alfonso Basterra: 'Es muy triste que haya usado a su hija
- La segunda salida de tono del conselleiro de Sanidade: cuestiona la importancia que se le da a la salud
- Las primeras furgonetas camper en serie de Galicia se fabrican en Baiona
- ¿Tienes mascotas en casa? Así podrás deducirte sus gastos de la declaración de la renta
- Un popular tiktoker catalán se rinde ante la afición del Celta: «Cada vez que vengo a Vigo...»
- Antonio David Flores regresa a la televisión tras su derrota judicial contra María Patiño: «Nunca olvidaré todo lo que has hecho»
- El vigués que triunfó en el QIR: «Estudiaba de lunes a sábado y, el último mes, sin descanso»
- Detenido un hombre en Vigo tras desaparecer cuatro días con su bebé y agredir a su pareja