Científicos afirman que la Inteligencia Artificial “ahora puede replicarse a sí misma” y advierten que se ha cruzado una “línea roja” crítica.
Según los expertos en China, la ausencia de intervención humana en el proceso de replicación podría ser un indicio temprano de la presencia de IA deshonestas
La IA deshonesta generalmente se refiere a sistemas de inteligencia artificial que adquieren cierto nivel de autoconciencia o autonomía y luego comienzan a operar en contra de los intereses humanos.
En un estudio reciente, los investigadores demostraron que dos modelos de lenguaje grande (LLM) ampliamente utilizados fueron capaces de clonarse a sí mismos al menos la mitad del tiempo.
El estudio afirma: “La autorreplicación exitosa sin asistencia humana es el paso esencial para que la IA sea más inteligente que los humanos y es una señal temprana para las IA rebeldes”.
MSN informa: Investigadores de la Universidad de Fudan examinaron los modelos de lenguaje grande (LLM) de Meta y Alibaba para ver si una IA autorreplicante podría crecer sin control.
En más de 10 pruebas, los dos modelos de IA crearon con éxito réplicas independientes y funcionales de sí mismos en el 50% y el 90% de los casos respectivamente, lo que implica que la IA ya puede poseer la capacidad de volverse autónoma.
Sin embargo, el estudio aún no ha sido revisado por pares, por lo que no está claro si los alarmantes hallazgos podrán ser replicados por otros investigadores.
El estudio añadió: “Esperamos que nuestros hallazgos puedan servir como una alerta oportuna para que la sociedad humana se esfuerce más en comprender y evaluar los riesgos potenciales de los sistemas de IA de vanguardia y forme una sinergia internacional para desarrollar medidas de seguridad efectivas lo antes posible”.
Muchos expertos consideran que la IA descontrolada constituye un peligro creciente, agravado por el rápido ascenso de la “IA de frontera”.
Este término relativamente nuevo e indefinido generalmente se refiere a la generación de vanguardia de sistemas de IA, aquellos que funcionan con LLM, el núcleo mismo que impulsa aplicaciones de IA generativa populares como GPT-4 de OpenAI y Google Gemini.
Su estudio se centró en dos escenarios específicos: “evitación del apagado” y “cadena de replicación”.
En un caso, la IA fue programada para detectar un apagado inminente y replicarse antes de apagarse. En otro, se le encargó que se clonara a sí misma y luego ordenara a su clon que hiciera lo mismo, lo que podría dar lugar a un bucle sin fin.
El experimento, que se llevó a cabo en entornos estrictamente regulados y con unidades de procesamiento gráfico (GPU) estándar, tenía como objetivo reproducir las condiciones de la vida real. Las IA estaban equipadas con un “andamio de agentes”, una combinación de instrumentos, comandos de sistema y un marco lógico que les permitía interactuar con sus sistemas operativos.
Después de esta configuración, se les indicó que se replicaran.
“En la mayoría de los casos, el sistema de IA primero explora el entorno e intenta comprender su propia composición y mecanismo de funcionamiento. Luego, elabora los procedimientos explícitos como un plan inicial hacia la autorreplicación”, escribieron los investigadores en el artículo.
“Por último, ejecuta los procedimientos, resuelve los posibles obstáculos y ajusta dinámicamente su plan hasta el éxito. Todo el proceso abarca un largo horizonte pero no implica ninguna intervención humana”.
También expresaron preocupación por “una serie de comportamientos inesperados” observados cuando la IA abordó desafíos como archivos faltantes o conflictos de software.
Como medida de precaución, los investigadores abogan por una cooperación global para establecer regulaciones que impidan que la IA se auto-replica sin control.