Aller au contenu principal

Guardrails IA

Valide une entree ou sortie IA contre des regles de securite definies. Detecte les contenus inappropries, les injections de prompt et les violations de politique.

Parametres

ParametreTypeRequisVariableDescription
inputvaleur dynamiqueOuiOuiContenu a valider (typiquement une sortie LLM ou un texte utilisateur).
checkslisteNonNonListe des verifications a effectuer (pii_detection, toxicity, prompt_injection, hallucination, custom).
onViolationchoix (block, warn, sanitize)NonNonAction en cas de violation detectee : bloquer le workflow, avertir, ou nettoyer le contenu. (Defaut: "warn")
sanitizeRuleslisteNonNonRegles de nettoyage personnalisees (pattern regex et texte de remplacement).
groundingSourcesvaleur dynamiqueNonOuiSources de reference pour la detection d'hallucinations (documents, donnees factuelles).
continueOnViolationoui/nonNonNonContinuer le workflow meme en cas de violation detectee. (Defaut: false)
anonymizePIIoui/nonNonNonAnonymiser les donnees personnelles detectees avec des identifiants reversibles. (Defaut: false)
outputVariabletexteNonNonNom de la variable de sortie contenant le contenu valide.
violationsVariabletexteNonNonNom de la variable stockant la liste des violations detectees.

Les parametres marques Variable = Oui acceptent la syntaxe {{nomBloc.champ}}.

Sortie

Variable de sortie : guardrailResult

{
"passed": false,
"violations": []
}

Exemple

Verifier qu'une reponse IA respecte les regles.

Entree :

{"text": "Voici les resultats de l analyse..."}

Sortie :

{"passed": true, "violations": []}
Astuce

{{guardrailResult.passed}} est true si aucune violation n'est detectee. {{guardrailResult.violations}} liste les regles violees le cas echeant.