Créer un assistant financier de documents avec Qdrant & Mistral.ai
Pour qui est-ce fait ?
Ce workflow est destiné aux équipes juridiques, fiscales, comptables ou aux développeurs de solutions IA qui souhaitent créer un assistant intelligent capable de répondre précisément à des questions sur des documents structurés (ex. : lois, règlements, documents fiscaux). Il est particulièrement utile pour celles et ceux qui travaillent avec des textes longs, denses et techniques.
Problème résolu / Cas d’usage
Les assistants classiques perdent souvent en pertinence lorsqu’ils résument ou interrogent de longs documents, notamment en raison d’un découpage basé uniquement sur la longueur du texte. Ce workflow améliore considérablement la précision des réponses en respectant la structure logique du document (chapitres, sections) et en enrichissant les données avec des métadonnées. Résultat : des réponses ciblées, fiables et sourcées.
Ce que fait ce workflow
-
Télécharge un document officiel (ZIP contenant des PDF ou du texte brut) depuis un site gouvernemental ou une source fiable.
-
Sépare le document par chapitres et sections, en respectant sa logique éditoriale.
-
Enrichit chaque section avec des métadonnées (chapitre, section, source, titre).
-
Envoie les sections et embeddings vectoriels vers Qdrant, un moteur de recherche sémantique performant.
-
Lorsqu’un utilisateur pose une question, l’IA interroge Qdrant via API en exploitant les filtres de métadonnées pour extraire les sections les plus pertinentes.
-
Génère une réponse claire et sourcée grâce à Mistral.ai ou tout autre LLM compatible.
Configuration
1. Traitement du document source
-
Téléchargez le document (ex. : code fiscal ou rapport annuel) au format ZIP.
-
Utilisez des expressions régulières ou des nœuds de parsing n8n pour découper le fichier en chapitres et sous-sections.
2. Génération d’embeddings avec Mistral.ai
-
Pour chaque section, générez un vecteur via l’API d’embedding de Mistral.
-
Assurez-vous que la dimension vectorielle est compatible avec votre collection Qdrant.
3. Indexation dans Qdrant
-
Insérez chaque section dans une collection Qdrant avec :
-
le texte vectorisé,
-
les métadonnées (chapitre, section, source, URL éventuelle),
-
un identifiant unique.
-
4. Recherche & réponse IA
-
Lorsqu’un utilisateur pose une question, n8n appelle l’API de recherche de Qdrant avec une requête vectorielle.
-
L’IA récupère les passages les plus pertinents filtrés par métadonnées (ex. : « chapitre 4 », « source = Code des impôts »).
-
Génère une réponse avec Mistral.ai en réutilisant le contexte extrait.
Personnalisation possible
-
Afficher ou envoyer à l’utilisateur le lien direct vers la page PDF originale.
-
Ajouter un système de filtre par langue, type de document ou année.
-
Remplacer Mistral.ai par un autre LLM (OpenAI, Claude, etc.) en adaptant la génération des embeddings.
-
Ajouter une interface front-end avec un moteur de recherche simplifié (ex. : via Retool, Softr ou Webflow).
Exemple d’utilisation
Entrée utilisateur :
« Que dit le code des impôts à propos du fret dans le commerce international ? »
Sortie IA :
« La section 11.25 du Texas Property Tax Code précise que les conteneurs de fret maritime utilisés exclusivement dans le commerce international sont exonérés de taxes locales. [Source : www.texas.gov/code#11.25] »