En los últimos meses, el mundo de la tecnología ha hablado mucho de un nuevo asistente de inteligencia artificial que ha prendido la chispa entre desarrolladores, entusiastas de las IA y expertos en ciberseguridad: Clawdbot, ahora renombrado como Moltbot.
¿Qué es Clawdbot (Moltbot)?
Moltbot es un agente de inteligencia artificial de código abierto diseñado para ir más allá de las simples conversaciones: puede interactuar directamente con tu ordenador y tus aplicaciones. A diferencia de los chatbots tradicionales que solo responden con texto, este tipo de asistente puede ejecutar acciones reales, como:
- Leer y escribir archivos en tu disco duro.
- Ejecutar comandos en tu sistema operativo.
- Acceder a correos, calendarios y aplicaciones de mensajería.
- Automatizar tareas como enviar mensajes o gestionar actividades diarias.
No se trata de una IA en la nube como ChatGPT o Gemini, sino de un programa que corre en tu propio dispositivo, con acceso profundo al sistema.
Aunque las posibilidades de esta herramienta parecen prometedoras, su alcance también eleva los riesgos de seguridad a niveles poco comunes:
Acceso completo al sistema
Moltbot puede ejecutar comandos en tu máquina y manipular archivos sin restricciones. Eso significa que cualquier fallo (ya sea por un error del propio asistente o por una orden maliciosa disfrazada) puede:
- Borrar o modificar información esencial.
- Dejar expuesto tu sistema a instrucciones inesperadas o dañinas.
Vulnerabilidad a ataques de prompt injection
Este tipo de ataque ocurre cuando instrucciones maliciosas se introducen dentro de un texto aparentemente legítimo. Por ejemplo, un archivo que pides resumir puede ocultar comandos que fuerzan al asistente a hacer cosas peligrosas, como enviar datos a un servidor externo o ejecutar acciones no autorizadas.
Esto es especialmente preocupante porque Moltbot interpreta el contenido que lee como órdenes, sin distinguir de manera fiable entre texto normal e instrucciones ocultas.
Interfaces expuestas y acceso no autenticado
La documentación y varios estudios de seguridad han detectado instancias de Moltbot con paneles de control expuestos a Internet sin autenticación, lo que permite a terceros:
- Ver tus registros de chat y credenciales.
- Acceder a tus tokens y claves API.
- Ejecutar comandos de forma remota si encuentran el puerto abierto.
Salida accidental de datos sensibles
Cuando das acceso a Moltbot a aplicaciones como WhatsApp o Telegram, o lo conectas con servicios de correo y otras plataformas, existe el riesgo de que:
- Chats privados y archivos se filtren.
- Claves de acceso queden expuestas en texto plano en los archivos de configuración.
Esto es un problema crítico tanto si usas el asistente a nivel personal como si lo empleas en entornos corporativos con datos confidenciales.
La principal preocupación de privacidad radica en la cantidad y sensibilidad de los datos a los que este tipo de asistente puede acceder. Moltbot puede acumular correos, conversaciones, credenciales y otras informaciones en un solo punto. Si esta base de datos se ve comprometida, la exposición es mayor que en servicios tradicionales, donde la información suele estar más segmentada.
A diferencia de otras IA que solo responden cuando tú lo pides, Moltbot puede iniciar acciones por sí mismo (como enviar notificaciones o interactuar con otras aplicaciones) si recibe información que interpreta como una orden válida.
Esto puede derivar en fugas de datos personales sin que el usuario se dé cuenta de inmediato.
Clawdbot / Moltbot representa un avance interesante en asistentes de IA personalizados con gran autonomía. Sin embargo, su nivel de acceso y las debilidades actuales de seguridad exigen prudencia extrema.