Guardrails IA
Valide une entree ou sortie IA contre des regles de securite definies. Detecte les contenus inappropries, les injections de prompt et les violations de politique.
Parametres
| Parametre | Type | Requis | Variable | Description |
|---|---|---|---|---|
input | valeur dynamique | Oui | Oui | Contenu a valider (typiquement une sortie LLM ou un texte utilisateur). |
checks | liste | Non | Non | Liste des verifications a effectuer (pii_detection, toxicity, prompt_injection, hallucination, custom). |
onViolation | choix (block, warn, sanitize) | Non | Non | Action en cas de violation detectee : bloquer le workflow, avertir, ou nettoyer le contenu. (Defaut: "warn") |
sanitizeRules | liste | Non | Non | Regles de nettoyage personnalisees (pattern regex et texte de remplacement). |
groundingSources | valeur dynamique | Non | Oui | Sources de reference pour la detection d'hallucinations (documents, donnees factuelles). |
continueOnViolation | oui/non | Non | Non | Continuer le workflow meme en cas de violation detectee. (Defaut: false) |
anonymizePII | oui/non | Non | Non | Anonymiser les donnees personnelles detectees avec des identifiants reversibles. (Defaut: false) |
outputVariable | texte | Non | Non | Nom de la variable de sortie contenant le contenu valide. |
violationsVariable | texte | Non | Non | Nom de la variable stockant la liste des violations detectees. |
Les parametres marques Variable = Oui acceptent la syntaxe
{{nomBloc.champ}}.
Sortie
Variable de sortie : guardrailResult
{
"passed": false,
"violations": []
}
Exemple
Verifier qu'une reponse IA respecte les regles.
Entree :
{"text": "Voici les resultats de l analyse..."}
Sortie :
{"passed": true, "violations": []}
Astuce
{{guardrailResult.passed}} est true si aucune violation n'est detectee. {{guardrailResult.violations}} liste les regles violees le cas echeant.