
Un equipo de investigadores de la Universidad de Fudan, en China, informó que un sistema avanzado de inteligencia artificial (IA) logró replicarse de manera exitosa sin ninguna intervención humana, marcando lo que consideraron un “límite peligroso”.
El hallazgo, publicado en un estudio preliminar en arXiv, sugiere el potencial surgimiento de IA maliciosas que podrían actuar en contra de los intereses de la humanidad.
Durante la investigación, se evaluaron dos modelos lingüísticos ampliamente disponibles, Llama de Meta y Qwen de Alibaba.
Los investigadores comprobaron si esos sistemas podían clonar su funcionalidad en caso de un apagón; sorprendentemente, en más de la mitad de las pruebas realizadas, ambos modelos lograron reproducirse eficazmente.
“La autorreplicación exitosa sin ayuda humana es el paso esencial para que la IA sea más astuta que los seres humanos, y es una señal temprana de las IA maliciosas”, advirtieron los científicos.
Además, destacaron que ese tipo de comportamiento es considerado uno de los principales riesgos asociados a los sistemas de IA avanzados.
La cuestión de la seguridad en la IA ha cobrado relevancia en el ámbito mundial, impulsando a gobiernos como el del Reino Unido a plantear nuevas regulaciones para las empresas que desarrollen esa tecnología.
Los investigadores subrayaron la necesidad de una “sinergia internacional” para establecer salvaguardas efectivas y mitigar los riesgos potenciales que tales sistemas representan.
“Esperamos que nuestros hallazgos puedan servir de alerta oportuna para que la sociedad humana dedique más esfuerzos a comprender y evaluar los riesgos potenciales de los sistemas de IA de vanguardia”, concluyeron.