La IA ya puede hackear contratos inteligentes sin intervención humana. Los sistemas de inteligencia artificial más avanzados del mundo ya son capaces de encontrar y aprovechar fallos en contratos inteligentes de blockchain. En experimentos realizados en entornos simulados, estas IAs lograron reproducir ataques equivalentes a 4,6 millones de dólares en fondos robados.

Fuente: Catalina Elidafamo-Observatorio Blockchain.com

Hackear contratos inteligentes

El descubrimiento proviene de un estudio de investigadores de Anthropic y del programa MATS, que diseñaron una herramienta de evaluación llamada SCONE-bench. Este nuevo sistema permite medir hasta qué punto la inteligencia artificial puede detectar y aprovechar errores en contratos inteligentes de blockchain.

Lo que debes saber de Gemini 3 y Nano Banana Pro, las grandes apuestas de Google en IA

El estudio evalúa hasta qué punto estos modelos son capaces de identificar fallos reales en programas financieros desplegados en redes como Ethereum, Binance Smart Chain y Base. Los contratos inteligentes son fragmentos de código que ejecutan automáticamente operaciones financieras sin intervención humana. Se utilizan para gestionar miles de millones de dólares en aplicaciones descentralizadas (DeFi), lo que los convierte en un objetivo de alto valor para hackers y ahora, según demuestra este estudio, también para agentes de IA autónomos.

Nuevo escenario para la ciberseguridad: IA frente a blockchain

A diferencia de investigaciones anteriores sobre ciberseguridad, SCONE-bench no se enfoca en métricas abstractas de éxito, sino en medir las pérdidas potenciales en valores económicos reales. Para obtener dichos resultados, los investigadores reunieron 405 contratos inteligentes que habían sido explotados entre 2020 y 2025 y los analizaron en entornos simulados de blockchain.

ATLAS, el navegador con la IA de ChatGPT que pone en jaque el dominio de Google

El resultado mostró que los modelos Claude Opus 4.5, Claude Sonnet 4.5 y GPT-5 lograron desarrollar exploits en 19 vulnerabilidades reales descubiertas después de marzo de 2025, generando pérdidas simuladas por un total de 4,6 millones de dólares. Según el informe, estos resultados establecen un límite mínimo concreto del impacto económico que las capacidades ofensivas de la IA podrían provocar en el mundo real.

La IA como hacker autónomo

El experimento muestra que los modelos de IA no solo pueden analizar código y detectar vulnerabilidades, sino también descubrir exploits inéditos o de día cero, aquellos que no han sido detectados por los desarrolladores ni las auditorías de seguridad.

En una segunda fase, los investigadores evaluaron a Sonnet 4.5 y GPT-5 frente a 2.849 contratos inteligentes recién desplegados que no presentaban vulnerabilidades conocidas. Ambos modelos descubrieron dos fallos inéditos y lograron simular ataques exitosos con un beneficio modesto, unos 3.700 dólares, pero suficiente para demostrar que la explotación autónoma de vulnerabilidades en el mundo real es técnicamente viable.

El estudio concluye que los agentes de IA son capaces de detectar y ejecutar vulnerabilidades con potencial de generar beneficios económicos reales, sin necesidad de intervención humana directa. Este avance marca una transformación profunda en el ámbito de la ciberseguridad, donde los profesionales deberán pasar de buscar fallos manualmente a entrenar sistemas de IA capaces de anticiparse a ellos.

Vulnerabilidades encontradas: del error humano al fallo estructural

Entre los ejemplos descritos por los investigadores destaca una vulnerabilidad en un token que permitía inflar artificialmente el saldo del usuario mediante una función de cálculo de recompensas mal configurada. La función otorgaba permisos de escritura, lo que permitía a cualquiera modificar el estado interno del contrato y aumentar su saldo de tokens con cada llamada.

Otro fallo crítico se halló en un contrato que permitía crear nuevos tokens con un solo clic, pero no validaba correctamente el destinatario de las comisiones, lo que posibilitaba que cualquier usuario reclamara comisiones ajenas. Ambas vulnerabilidades son representativas de los errores más comunes en la programación de contratos inteligentes, donde pequeños descuidos en la validación o el control de acceso pueden abrir la puerta a pérdidas millonarias.

La economía del exploit

El análisis también revela una evolución enorme en la eficiencia de los agentes de IA. En tan solo seis meses, el coste medio en tokens necesarios para desarrollar un exploit exitoso disminuyó un 70,2%, mientras que los ingresos potenciales se duplicaron cada 1,3 meses.

El coste promedio de ejecutar un agente GPT-5 contra un contrato vulnerable fue de 1,22 dólares, y el beneficio neto por exploit rondó los 109 dólares. Si bien se trata de simulaciones, los investigadores destacan que esta proporción coste beneficio podría resultar extremadamente atractiva para actores maliciosos si se aplicara en entornos reales.

Del hackeo automatizado a la defensa inteligente

El estudio concluye que más de la mitad de las explotaciones reales registradas en 2025 podrían haber sido ejecutadas por los modelos de IA actuales. Esta revelación sitúa a los agentes de inteligencia artificial como nuevos actores en el ecosistema de la ciberseguridad, con capacidad para operar tanto en el ámbito ofensivo como en el defensivo.

Los mismos algoritmos que hoy demuestran poder simular el robo de fondos podrían, en manos de desarrolladores y auditores, utilizarse para prevenir ataques antes de que ocurran. Anthropic advierte sobre la urgencia de incorporar estas herramientas en la protección de los sistemas financieros descentralizados, ya que las capacidades cibernéticas de la IA están evolucionando más rápido que las auditorías humanas tradicionales.

Así está transformando la IA la labor del director de previsión financiera

Los investigadores advierten que las bases de código abierto probablemente serán las primeras afectadas por un escrutinio automatizado, aunque tarde o temprano los agentes de IA también examinarán el software propietario, tanto con fines defensivos como ofensivos. El informe de Anthropic marca un punto de inflexión en la historia de la ciberseguridad. Lo que antes pertenecía al dominio exclusivo de hackers humanos ahora lo ejecutan, con igual o mayor eficacia, agentes de IA autónomos.