L’analyse des données textuelles offre de nombreuses possibilités pour comprendre l’expérience client, et pour identifier les causes profondes des problèmes rencontrés lors des interactions entre les clients et les entreprises.

Les entreprises ‘customer centric’ sont donc de plus en plus nombreuses à s’équiper d’un logiciel d’analyse sémantique, afin de tirer enfin parti de toutes ces données inexploitées : emails, enquêtes de satisfaction, messages sur les réseaux sociaux…

Mais encore faut-il choisir le bon outil ! Ce qui n’est pas facile, car les acteurs sont nombreux, et le marché évolue en permanence.

Les analystes de Bain & Company, un cabinet international de conseil en stratégie, ont identifié 5 critères qui sont, selon eux, les plus utiles à prendre en compte pour choisir votre logiciel d’analyse sémantique. Nous nous en sommes inspirés pour rédiger cet article.

 

1- Méthodes et technologies d’analyse sémantique

Selon Bain & Company, les solutions les plus avancées utilisent une combinaison de méthodes pour analyser le texte, incluant :

  • l’apprentissage automatique ou machine learning (supervisé ou non supervisé) ;
  • les techniques de traitement automatique du langage naturel (TALN ou NLP) ;
  • mais aussi des règles statistiques et métier qui doivent pouvoir s’adapter au client.

Les plateformes basées principalement sur le machine learning utilisent des algorithmes complexes. Elles sont peu personnalisables, et elles souffrent du syndrôme “boîte noire” : il est parfois difficile, voire impossible de justifier et d’expliquer les résultats des analyses. Les utilisateurs doivent faire confiance à la machine, ce qui n’est pas toujours facile face à un résultat qu’on ne comprend pas.

Ces plateformes offrent des performances élevées, avec des résultats accessibles rapidement. Le corollaire est qu’elle ne fonctionnent qu’avec des volumes importants de données.

A l’inverse, les plateformes s’appuyant essentiellement sur des technologies de traitement du langage nature (TALN) et sur des dictionnaires métier ont tendance à se spécialiser sur un cas d’usage ou un secteur d’activité en particulier. Cette approche fonctionne plutôt bien, et permet de lancer un projet d’analyse sémantique rapidement. Mais attention, si les données à analyser débordent du cadre déjà géré par ces plateformes, les résultats risques d’être décevants. 

En ce qui concerne l’analyse de la tonalité ou polarité du discours, qu’on appelle aussi “analyse de sentiment”, la plupart des plateforme permettent d’identifier un verbatim comme étant positif, négatif ou neutre. Certains outils vont plus loin, en notant la tonalité d’un verbatim sur une échelle de 1 à 10. Mais le degré de précision est très variable et dépend de la qualité de la donnée. Selon Bain & Company, rares sont les solutions capables d’obtenir un bon taux de fiabilité sur cet aspect de l’analyse, il faut donc que l’outil choisi vous permettre d’évaluer la fiabilité de l’analyse et de mesurer le taux de “faux positifs”.

 

2- Intégration de métadonnées associées aux données textuelles

On parle ici de la capacité de la plateforme à intégrer des données qui enrichissent les données textuelles. Selon Bain & Company, de nombreuses plateforme d’analyse sémantique n’offrent pas cette possibilité.

Dans le cas de verbatims clients, cela peut être des données de segmentation client : âge, pays, ville, type de client, historique de la relation… Une des métadonnées les plus intéressantes est la note de satisfaction ou le score NPS associé à un commentaire client. Pouvoir mettre en regard le feedback écrit des clients et la note chiffrée offre un éclairage très utile sur les causes racines de la satisfaction ou de l’insatisfaction, et sur les ressorts de la fidélité client.

 

3- Tableaux de bords et reporting personnalisables

Les experts de Bain & Company ont remarqué que de nombreux logiciels d’analyse sémantique offrent un reporting s’appuyant sur des graphiques assez basiques.

C’est pourquoi ils recommandent de privilégier les solutions offrant la possibilité de personnaliser les tableaux de bord et de créer son reporting sur mesure.

Ils insistent également sur la nécessité de pouvoir exporter facilement les données et statistiques, sous divers formats.

 

4- Navigation facile et rapide dans les données

Le quatrième critère de choix mis en avant par les analyses de Bain & Company est l’ergonomie du logiciel d’analyse sémantique, et la facilité de prise en main. L’utilisation de l’outil ne doit pas être réservé aux experts. Pour que les utilisateurs puissent l’utiliser facilement, il est impératif de vérifier les performances de l’outil : la navigation doit être fluide et rapide.

 

5- Analyse sémantique en plusieurs langues

Le dernier critère à prendre en compte pour le choix de votre logiciel d’analyse sémantique est sa capacité à analyser les données en plusieurs langues. Les meilleurs outils prennent en charge plusieurs langues de façon native, sans passer systématiquement par la traduction des données d’origine en une “langue pivot”. 

 

Et Proxem dans tout ça ?

Le logiciel Proxem Studio coche toutes les cases identifiées par Bain & Company :

  • un moteur d’analyse sémantique qui combine traitement du langage naturel, machine learning, et règles métiers personnalisées par l’utilisateur ;
  • possibilité d’associer des données externes comme vos segments clients ou le NPS ;
  • tableaux de bords et graphiques variés et personnalisables ;
  • ergonomie et rapidité de chargement des résultats ;
  • gestion native de 27 langues.

 
Proxem est également citer comme l’un des acteurs sérieux du marché des éditeurs de logiciel d’analyse des données textuelles, d’après une étude du Market Report Gazette :
“Text Analytics Software Market by 2019-2026”
 

Vous n’êtes pas convaincu.e ?