Aller au contenu principal

Prompt LLM

Envoie un texte (prompt) a un modele de langage (LLM) et recupere la reponse. Supporte les formats texte, JSON et structure. Le resultat inclut des metriques (tokens consommes, latence, modele utilise) utiles pour le suivi des couts.

Parametres

ParametreTypeRequisVariableDescription
promptTemplatetexteOuiOuiTexte du prompt envoye au modele IA. Supporte les variables {{variable}}. (min 5 car.)
model.providertexteOuiNonFournisseur du modele de langage (ex. openai, anthropic, mistral).
model.modeltexteOuiNonIdentifiant du modele a utiliser (ex. gpt-4o, claude-3-opus).
parameters.temperaturenombreNonNonCreativite du modele. 0 = deterministe, 1 = plus creatif. (Defaut: 0.7, min 0, max 2)
parameters.maxTokensnombreNonNonNombre maximum de tokens dans la reponse generee. (Defaut: 2048, min 1, max 128000)
outputFormatchoix (text, json, structured)NonNonFormat de la reponse : texte brut, JSON ou structure typee. (Defaut: "text")
systemPrompttexteNonOuiInstructions systeme envoyees avant le prompt principal. Definit le comportement du modele.
outputVariabletexteNonNonNom de la variable de sortie contenant la reponse du modele.

Les parametres marques Variable = Oui acceptent la syntaxe {{nomBloc.champ}}.

Sortie

Variable de sortie : promptResult

{
"success": false,
"content": "...",
"rawContent": "...",
"parsedData": "...",
"outputFormat": "...",
"model": "...",
"provider": "...",
"finishReason": "...",
"tokensInput": 0,
"tokensOutput": 0,
"totalTokens": 0,
"latencyMs": 0
}

Exemple

Generer un resume a partir de donnees d'entree.

Entree :

{"text": "Le fournisseur Acme a livre 500 unites le 15 mars..."}

Sortie :

{"success": true, "content": "Resume : Acme a livre 500 unites le 15/03.", "rawContent": "Resume : Acme a livre 500 unites le 15/03.", "outputFormat": "text", "model": "gpt-4o-mini", "provider": "openai", "tokensInput": 42, "tokensOutput": 18, "totalTokens": 60, "latencyMs": 1165}

Erreurs courantes

ProblemeSolution
Le modele ne repond pasVerifiez que le provider LLM est configure dans les parametres du workspace.
Le prompt est trop courtSaisissez au moins 5 caracteres dans le champ prompt.
Astuce

Utilisez {{promptResult.content}} pour la reponse textuelle et {{promptResult.tokensOutput}} pour suivre la consommation de tokens.