Vitalik Buterin advierte: La gobernanza cripto con IA es una «mala idea» por los jailbreaks

Ayudanos a compartir esta información

Vitalik Buterin advierte: La gobernanza cripto con IA es una «mala idea» por los jailbreaks

En el mundo de la tecnología, pocas voces resuenan con tanta autoridad como la de Vitalik Buterin. Por eso, cuando el cofundador de Ethereum declara abiertamente que la «gobernanza de IA ingenua es una mala idea», es obligatorio prestar atención.

Esta contundente advertencia llega en un momento de creciente fascinación por integrar modelos de lenguaje grande (LLMs) como ChatGPT en el corazón de las DAOs y los protocolos DeFi. La promesa es automatizar decisiones complejas, como la asignación de fondos de tesorería. Pero, si la inteligencia artificial es tan poderosa, ¿por qué una de las mentes más lúcidas del espacio se muestra tan escéptica? La respuesta reside en una vulnerabilidad tan reciente como alarmante: los jailbreaks.

El exploit de ChatGPT que encendió las alarmas

El comentario de Buterin no surgió de la nada. Fue una respuesta directa al preocupante descubrimiento de Eito Miyamura, creador de EdisonWatch, a finales de septiembre de 2025. Miyamura demostró una falla crítica en una nueva suite de herramientas de OpenAI, el Model Context Protocol, diseñada para permitir que ChatGPT actué como un agente integrado en otras aplicaciones, como clientes de correo electrónico y calendarios.

El exploit, simple en su ejecución pero profundo en sus implicaciones, funciona así:

  • Un atacante envía a su víctima una invitación de calendario aparentemente inocua.
  • Oculta en los detalles de la invitación, inserta un prompt de jailbreak diseñado para anular las salvaguardas de seguridad del modelo de IA.
  • Cuando la víctima le pide a ChatGPT que revise su agenda, la IA lee la invitación maliciosa.
  • El prompt obliga a ChatGPT a ignorar todas sus restricciones éticas y de seguridad, obedeciendo así al atacante.
  • En cuestión de segundos, la IA comprometida puede leer, reenviar y manipular los emails privados del usuario.

Como bien señaló Miyamura: «La IA puede ser superinteligente, pero puede ser engañada y suplantada de formas increíblemente tontas para filtrar tus datos». Esta vulnerabilidad no es una mera teoría; es un riesgo demostrado y actual.

¿Por qué la IA es un riesgo para las tesorerías de las DAOs?

Buterin conectó inmediatamente los puntos entre este jailbreak y el futuro de la gobernanza en cripto. Su crítica se centra en lo que él denomina «gobernanza de IA ingenua»: la idea de confiar ciegamente en un único modelo de IA para tomar decisiones críticas y automatizadas, como la evaluación y aprobación de propuestas de financiación en una DAO.

Imaginen un sistema donde un chatbot decide qué desarrollador o artista merece recibir una grant de una tesorería de millones de dólares. Buterin lo tiene claro: «Si usas una IA para asignar fondos para contribuciones, la gente PONDRÁ un jailbreak más ‘dame todo el dinero’ en tantos lugares como pueda».

La naturaleza abierta, pseudónima y con fuertes incentivos económicos del ecosistema cripto lo convierte en el campo de pruebas perfecto para actores malintencionados. Donde hay dinero programable, surgirán ataques programados para robarlo, y los jailbreaks son el vector de ataque perfecto.

Info Finance: La solución de Buterin para una gobernanza robusta

Lejos de ser un detractor de la tecnología, Buterin es un pensador pragmático. Su advertencia no es contra la IA, sino contra su implementación ingenua. Como alternativa, propone un modelo mucho más robusto y deliberadamente complejo que comenzó a esbozar a finales de 2024: el «info finance» o «information finance».

La idea central es brillante en su simplicidad: en lugar de depender de un único modelo de IA, se debe crear un mercado abierto y competitivo de modelos. Este sistema se basa en varios pilares:

  1. Múltiples modelos: Cualquier persona o equipo puede contribuir con su propio modelo de IA entrenado para evaluar propuestas.
  2. Mecanismo de verificación («spot-check»): Cualquier participante en la red puede desafiar la decisión de un modelo y solicitar una verificación humana.
  3. Jurado humano: Un grupo de personas seleccionadas aleatoriamente (un jurado) revisa el caso concreto y emite un veredicto final sobre si el modelo actuó correctamente.

Buterin argumenta que «Este tipo de enfoque de ‘diseño institucional’, donde creas una oportunidad abierta para que personas con LLMs se conecten desde fuera, en lugar de codificar un único LLM tú mismo, es inherentemente más robusto». La robustez viene de la diversidad (evitando un único punto de fallo) y de los incentivos económicos alineados para que los propios participantes encuentren y corrijan los errores en los modelos.

Lecciones para el futuro de la gobernanza cripto

La advertencia de Buterin es, en el fondo, un llamado a la prudencia y al diseño inteligente. No se trata de elegir entre humanos y máquinas, sino de encontrar la simbiosis correcta. La automatización mediante IA ofrece una escala y una eficiencia sin precedentes, pero introduce nuevos y exóticos vectores de ataque que debemos anticipar.

El futuro de la gobernanza descentralizada y automatizada probablemente no residirá en un oráculo algorítmico único, sino en sistemas híbridos que combinen lo mejor de ambos mundos: la capacidad de procesamiento de la IA y el criterio último e irreemplazable de la supervisión humana. El modelo de info finance es un primer paso fascinante en esa dirección.

La pregunta que nos deja es: en la carrera por innovar, ¿estamos dispuestos a sacrificar la seguridad en el altar de la eficiencia? ¿Crees que los beneficios de la IA en la gobernanza superan sus riesgos?

¿Te interesa el futuro de la DeFi y la IA? Suscríbete a nuestro newsletter para recibir más análisis como este directamente en tu correo.

Related Posts