Prompt LLM
Envoie un texte (prompt) a un modele de langage (LLM) et recupere la reponse. Supporte les formats texte, JSON et structure. Le resultat inclut des metriques (tokens consommes, latence, modele utilise) utiles pour le suivi des couts.
Parametres
| Parametre | Type | Requis | Variable | Description |
|---|---|---|---|---|
promptTemplate | texte | Oui | Oui | Texte du prompt envoye au modele IA. Supporte les variables {{variable}}. (min 5 car.) |
model.provider | texte | Oui | Non | Fournisseur du modele de langage (ex. openai, anthropic, mistral). |
model.model | texte | Oui | Non | Identifiant du modele a utiliser (ex. gpt-4o, claude-3-opus). |
parameters.temperature | nombre | Non | Non | Creativite du modele. 0 = deterministe, 1 = plus creatif. (Defaut: 0.7, min 0, max 2) |
parameters.maxTokens | nombre | Non | Non | Nombre maximum de tokens dans la reponse generee. (Defaut: 2048, min 1, max 128000) |
outputFormat | choix (text, json, structured) | Non | Non | Format de la reponse : texte brut, JSON ou structure typee. (Defaut: "text") |
systemPrompt | texte | Non | Oui | Instructions systeme envoyees avant le prompt principal. Definit le comportement du modele. |
outputVariable | texte | Non | Non | Nom de la variable de sortie contenant la reponse du modele. |
Les parametres marques Variable = Oui acceptent la syntaxe
{{nomBloc.champ}}.
Sortie
Variable de sortie : promptResult
{
"success": false,
"content": "...",
"rawContent": "...",
"parsedData": "...",
"outputFormat": "...",
"model": "...",
"provider": "...",
"finishReason": "...",
"tokensInput": 0,
"tokensOutput": 0,
"totalTokens": 0,
"latencyMs": 0
}
Exemple
Generer un resume a partir de donnees d'entree.
Entree :
{"text": "Le fournisseur Acme a livre 500 unites le 15 mars..."}
Sortie :
{"success": true, "content": "Resume : Acme a livre 500 unites le 15/03.", "rawContent": "Resume : Acme a livre 500 unites le 15/03.", "outputFormat": "text", "model": "gpt-4o-mini", "provider": "openai", "tokensInput": 42, "tokensOutput": 18, "totalTokens": 60, "latencyMs": 1165}
Erreurs courantes
| Probleme | Solution |
|---|---|
| Le modele ne repond pas | Verifiez que le provider LLM est configure dans les parametres du workspace. |
| Le prompt est trop court | Saisissez au moins 5 caracteres dans le champ prompt. |
Astuce
Utilisez {{promptResult.content}} pour la reponse textuelle et {{promptResult.tokensOutput}} pour suivre la consommation de tokens.