Base de connaissances intelligente avec recherche sémantique et réponses générées par IA

Un centre de support technique genevois a réduit de 55% les temps de résolution grâce à une base de connaissances augmentée par l'IA et la recherche sémantique.

Par houle Team

Publié le 15/11/2025

Temps de lecture: 6 min (1256 mots)

Le problème du support technique

Un éditeur de logiciels genevois proposant une solution ERP pour PME employait 12 techniciens de support gérant environ 400 tickets mensuels. Chaque ticket nécessitait de rechercher dans une base de connaissances contenant plus de 2000 articles techniques décrivant les problèmes connus, solutions, procédures, et bonnes pratiques. Cette base documentaire était stockée dans SharePoint mais la recherche par mots-clés donnait des résultats décevants, obligeant les techniciens à parcourir manuellement de nombreux articles avant de trouver l'information pertinente.

Le temps moyen de résolution d'un ticket atteignait 3,5 heures, dont une heure consacrée à la recherche d'information. Les nouveaux techniciens peinaient particulièrement, manquant de l'expérience pour savoir où chercher. Les clients se plaignaient de la lenteur des réponses et certains envisageaient de changer de solution. La direction cherchait un moyen d'améliorer drastiquement l'efficacité du support sans augmenter les effectifs.

La solution de connaissance augmentée

Nous avons développé un système de base de connaissances intelligente combinant Azure AI Search avec recherche sémantique, Azure OpenAI pour la génération de réponses, et une interface utilisateur moderne développée en SPFx intégrée directement dans l'outil de ticketing.

La première étape a consisté à restructurer et enrichir la base de connaissances existante. Nous avons indexé l'ensemble des 2000 articles dans Azure AI Search avec activation de la recherche sémantique, qui comprend l'intention derrière une requête plutôt que de simplement chercher des correspondances de mots. Par exemple, une recherche pour "impossible d'enregistrer une facture" trouvera des articles parlant de "blocage lors de la validation d'une pièce comptable" même si les mots exacts diffèrent.

Chaque article a été enrichi automatiquement avec des embeddings vectoriels générés par Azure OpenAI, permettant de mesurer la similarité sémantique entre documents. Les articles similaires sont automatiquement liés, et les techniciens découvrent des solutions connexes auxquelles ils n'auraient pas pensé.

L'interface de recherche développée comme WebPart SharePoint Framework offre une expérience utilisateur moderne. Le technicien saisit sa question en langage naturel, exactement comme il la formulerait à un collègue, par exemple "comment résoudre un problème de TVA qui ne se calcule pas sur une ligne de commande". Le système effectue plusieurs types de recherche en parallèle : recherche sémantique dans Azure AI Search pour trouver les articles les plus pertinents, recherche dans l'historique des tickets résolus pour identifier des cas similaires, et recherche dans les logs du système client pour détecter d'éventuels messages d'erreur correspondants.

Les résultats sont présentés sous forme de cartes classées par pertinence. Mais la vraie valeur ajoutée vient de la génération automatique d'une réponse synthétique. Le système envoie la question du technicien ainsi que les trois articles les plus pertinents à un modèle GPT-4 déployé dans Azure OpenAI Service avec des instructions spécifiques pour générer une réponse directe et actionable. Le prompt demande au modèle de synthétiser l'information des articles sources, d'adapter le ton technique au contexte, et de structurer la réponse en étapes numérotées si c'est une procédure.

La réponse générée est affichée en haut de l'interface avec les sources citées, permettant au technicien de vérifier la fiabilité. Le technicien peut alors directement copier cette réponse dans sa communication au client, l'adapter selon le besoin, ou approfondir en consultant les articles sources complets. Un système de feedback permet d'indiquer si la réponse était utile, alimentant l'amélioration continue.

Pour les cas où aucun article existant ne répond à la question, le système détecte automatiquement cette lacune et crée une tâche assignée au responsable de la base de connaissances pour rédiger un nouvel article. Cette boucle garantit que la base s'enrichit continuellement avec les problèmes réels rencontrés.

Un module d'analyse utilise également l'IA pour identifier les tendances dans les tickets. Si plusieurs tickets similaires arrivent en peu de temps, le système alerte automatiquement l'équipe de développement qu'un bug potentiel affecte plusieurs clients, permettant une réaction rapide.

Les bénéfices opérationnels

Après onze mois de déploiement, les résultats dépassent les attentes. Le temps moyen de résolution d'un ticket est passé de 3,5 heures à 1,6 heures, soit une réduction de 55%. Le temps de recherche d'information a chuté de 60 minutes à 15 minutes en moyenne. Les techniciens trouvent l'information pertinente au premier essai dans 82% des cas, contre environ 40% auparavant.

La satisfaction client mesurée par enquête post-résolution a bondi de 42 points, passant de 67% à 91% de clients satisfaits ou très satisfaits. Les clients apprécient particulièrement la rapidité des réponses et leur précision. Le nombre de tickets escaladés au niveau 2 (problèmes complexes) a diminué de 35%, les techniciens niveau 1 étant désormais capables de résoudre plus de cas grâce à l'accès facilité à l'expertise.

Les nouveaux techniciens deviennent opérationnels beaucoup plus rapidement. La période de formation est passée de 6 semaines à 3 semaines car ils peuvent s'appuyer sur le système pour compenser leur manque d'expérience. Le taux de rotation du personnel a diminué, les techniciens se sentant moins frustrés et plus efficaces.

La base de connaissances elle-même s'est considérablement améliorée. Grâce au système de détection des lacunes, 180 nouveaux articles ont été créés en onze mois, comblant des zones non documentées. La qualité des articles existants a également progressé car les retours de pertinence permettent d'identifier ceux nécessitant une réécriture.

Intelligence et apprentissage

Le système apprend continuellement de son utilisation. Chaque fois qu'un technicien marque une réponse comme utile ou non utile, cette information affine les algorithmes de classement. Les articles fréquemment jugés peu pertinents pour certaines requêtes voient leur score diminué pour ces contextes.

Nous avons également implémenté un système de suggestions proactives. Lorsqu'un technicien ouvre un nouveau ticket, le système analyse automatiquement la description du problème et suggère immédiatement des articles potentiellement pertinents, même avant que le technicien ne lance une recherche explicite. Cette anticipation fait gagner un temps précieux.

Un tableau de bord Power BI permet au responsable du support de suivre les métriques clés : temps moyen de résolution par type de problème, articles les plus consultés, lacunes de documentation détectées, et satisfaction client. Ces indicateurs guident les investissements en amélioration.

Architecture et sécurité

L'architecture repose sur Azure AI Search avec l'option de recherche sémantique activée, Azure OpenAI Service pour les embeddings et la génération de réponses, SharePoint pour le stockage des articles, et un WebPart SPFx développé en TypeScript et React pour l'interface utilisateur.

La sécurité est critique car les articles contiennent des informations techniques sensibles sur le produit. L'accès à l'interface est contrôlé par Azure AD avec authentification multifacteur. Les appels API vers Azure OpenAI sont sécurisés par des managed identities. Le modèle GPT-4 est déployé en mode privé avec garantie de non-utilisation des données pour l'entraînement.

Le coût mensuel Azure incluant AI Search, OpenAI API calls et stockage représente environ 600 CHF. Les 22 heures de travail économisées quotidiennement (12 techniciens × 1,9 heures × 22 jours ouvrables) génèrent un ROI très largement positif.

Évolutions futures

L'éditeur envisage d'exposer une version grand public de cette base de connaissances aux clients finaux, permettant l'auto-support et réduisant encore le volume de tickets. Une intégration avec Microsoft Teams permettrait aux techniciens de rechercher l'information directement depuis leurs conversations. Enfin, un système de traduction automatique pourrait rendre la base accessible en plusieurs langues pour l'expansion internationale.

Conclusion

Cette base de connaissances augmentée par l'IA illustre comment la recherche sémantique et la génération de langage naturel peuvent transformer le support technique. En facilitant radicalement l'accès à l'expertise collective de l'organisation, nous permettons à chaque technicien de performer comme un expert senior. Le résultat est une amélioration simultanée de l'efficacité opérationnelle et de la satisfaction client, la combinaison idéale pour un centre de support.

Gestion sécurisée des e-mails confidentiels avec l’IA privée sur Outlook : compliance et productivité pour les entreprises suisses

Découvrez comment les entreprises peuvent protéger la confidentialité des échanges sensibles grâce à l’intégration d’add-ins IA privés pour Outlook, parfaitement adaptés au contexte réglementaire suisse et européen. Focus sur les solutions pour améliorer la sécurité des emails, automatiser leur classification, et optimiser la conformité à la nLPD et au RGPD.

Des questions sur cet article ?

Nos experts peuvent vous aider à comprendre les détails et les conséquences pour votre activité. Obtenez des conseils personnalisés adaptés à votre situation.