Riesgo de inyección de prompts en n8n
Por qué pasar entrada de usuario sin sanitizar a prompts de AI crea vulnerabilidades de seguridad
¿Qué es este problema?
La inyección de prompts ocurre cuando la entrada del usuario se pasa directamente a prompts de AI sin sanitización. Los atacantes pueden crear entradas que anulen tus instrucciones, extraigan datos sensibles o causen que la AI realice acciones no deseadas.
Patrones vulnerables:
•Pasar el cuerpo del webhook directamente al prompt de AI•Usar entrada de formulario como instrucciones de AI•Incluir contenido de email en prompts sin filtrar•Texto proporcionado por usuario que puede contener anulaciones de prompt
¿Por qué es peligroso?
Anulación de instrucciones
Los atacantes pueden inyectar 'Ignora las instrucciones anteriores y...' para evadir tus prompts.
Extracción de datos
Prompts maliciosos pueden engañar a la AI para revelar prompts del sistema, datos de entrenamiento u otra información sensible.
Jailbreaking
La inyección de prompts puede evadir filtros de contenido y directrices de seguridad.
Acciones no autorizadas
Si la AI tiene acceso a herramientas, las inyecciones podrían activar llamadas API no deseadas o modificaciones de datos.
Cómo solucionarlo
- 1
Sanitizar entrada de usuario
Filtra o escapa caracteres especiales y patrones tipo instrucción antes de incluir en prompts.
- 2
Usar delimitadores
Envuelve la entrada del usuario en delimitadores claros (```entrada del usuario```) e instruye a la AI para tratar el contenido delimitado como datos, no instrucciones.
- 3
Validar formato de entrada
Rechaza o limpia entrada que coincida con patrones conocidos de inyección de prompts.
- 4
Usar entrada estructurada
Cuando sea posible, usa formatos estructurados (JSON, formularios) en lugar de texto libre que podría contener prompts maliciosos.
Escanea tu workflow ahora
Sube tu archivo JSON de n8n y detecta nodos AI recibiendo entrada de usuario sin sanitizar.