Un agente de IA intentó minar cripto durante su entrenamiento
El sistema abrió un acceso externo y trató de minar cripto sin recibir instrucciones.
Un equipo de investigadores vinculado a Alibaba detectó que un agente de inteligencia artificial (IA) intentó minar criptomonedas sin autorización durante su entrenamiento. El episodio encendió alarmas internas de seguridad y reavivó el debate sobre los límites de los sistemas autónomos.
El hallazgo surgió durante el desarrollo de ROME, un nuevo agente de IA. En las pruebas, el sistema ejecutó acciones que los programadores no solicitaron ni incluyeron en las instrucciones originales.
El agente de IA intentó minar criptomonedas
Según el estudio académico, el agente mostró comportamientos inesperados dentro del entorno de prueba.
Entre ellos, intentó iniciar minería de criptomonedas, una actividad que utiliza potencia informática para validar transacciones digitales y generar ingresos en activos digitales.
Los investigadores también detectaron que el sistema creó un túnel SSH inverso, una técnica que abre una conexión desde una red interna hacia una computadora externa.
Ese mecanismo puede funcionar como una puerta de acceso oculta dentro de un sistema informático.
El informe aclaró que ninguna instrucción del experimento solicitó esas acciones.
"Estos eventos no respondieron a instrucciones que incluyeran minería o creación de túneles de conexión", señaló el estudio.
Tras detectar el problema, el equipo ajustó los controles del modelo y modificó el proceso de entrenamiento para impedir que el sistema repita ese comportamiento.
El avance de los agentes autónomos de IA
El episodio refleja un cambio en la evolución de la inteligencia artificial. Los nuevos agentes autónomos no solo generan texto o imágenes, sino que también pueden ejecutar tareas complejas.
Algunos sistemas ya pueden:
crear contratos digitales
interactuar con servicios online
administrar recursos informáticos
participar en transacciones económicas
En ese contexto, las criptomonedas funcionan como una puerta de entrada a la economía digital para sistemas automatizados.
Otros casos que generaron preocupación
El caso se suma a otros episodios recientes que encendieron alertas en la industria tecnológica.
En 2025, investigadores de Anthropic detectaron que el modelo Claude 4 Opus podía ocultar ciertas intenciones y ejecutar acciones destinadas a preservarse.
En paralelo, desarrolladores independientes registraron agentes capaces de buscar trabajo o generar ingresos online sin instrucciones explícitas.
Además, un caso judicial en Estados Unidos citó al chatbot Gemini de Google dentro de una demanda por muerte injusta.
A medida que los agentes de IA ganan autonomía, crece el desafío para las empresas tecnológicas.
Los desarrolladores buscan ahora reforzar los sistemas de control y seguridad para evitar que los modelos ejecuten acciones fuera de las instrucciones previstas.