Le regard de Thomas Cohu, Directeur Produit chez Proxem.

DES INTERVENANTS DE QUALITÉ

Ce fut une journée très riche en retours d’expérience avec des présentations détaillées de grands groupes industriels et de chercheurs (Airbus, SNCF, Engie, EDF, ISRN, CNRS…) sur des usages multiples de l’analyse des données textuelles : analyse des logbooks de maintenance, aide à la rédaction de procédures techniques, analyse des REX, veille web…

J’ai été particulièrement impressionné par la qualité des intervenants, qui, sans être forcément des spécialistes du traitement du langage, ont pu démontrer à travers leurs travaux respectifs leur compréhension fine de l’apport des différentes techniques d’analyse textuelle (classification automatique, similarité, constitution de thésaurus, topic modelling…) et des difficultés méthodologiques.

UNE MINE D’OR A EXPLOITER

Si le sujet de l’analyse des risques industriels n’est pas un sujet nouveau pour Proxem, cette journée nous a permis de confirmer la valeur apportée par l’analyse des données textuelles pour une meilleure maitrise des risques industriels. Les données recueillies dans le cadre des « REX » ont en effet des bonnes propriétés pour en faire une analyse textuelle pertinente :

  • Elles ont une grande valeur : elles regorgent d’informations qui peuvent permettre de mieux comprendre les phénomènes étudiés et trouver des éléments qui permettront de réduire les risques,
  • Les technologies actuelles sont bien adaptées pour les analyser avec un effort modéré et un gain de temps à la clé : les documents ou verbatim sont relativement courts, et les volumes à traiter sont suffisamment importants pour tirer des conclusions statistiques, tout en restant dans des proportions qui ne nécessitent pas des temps de calculs importants ou une infrastructure complexe.

LE FUTUR DU TAL ? ON Y EST DÉJÀ…

J’ai également beaucoup apprécié la conclusion de Ludovic Tanguy, ‎Maître de conférences en sciences du langage à l’Université de Toulouse, qui a clos la session par un complet panorama des techniques de traitement automatique du langage, depuis l’école de lexicométrie jusqu’aux récentes techniques de l’analyse distributionnelle via les word-embedding, en passant par les techniques de topic modeling.

Des techniques maitrisées par Proxem, implémentées dans Proxem Studio et prêtes à l’emploi !

Cette conclusion nous a donc également confortés dans nos choix techniques et fonctionnels pour proposer la plateforme d’analyse de données textuelles la plus complète et intuitive à utiliser.

Chez Proxem, nous sommes en effet convaincus que si le machine learning apporte des atouts certains pour l’analyse des données, il est fondamental que l’expert métier garde la main et reste le maître de l’interprétation de la donnée.

C’est dans cet esprit que nous avons conçu Proxem Studio : les concepts, les thèmes et leur organisation sont suggérés par le logiciel, pour que l’humain en dispose et les adapte suivant sa problématique, son regard métier et son propre jugement.

Une philosophie de l’intelligence artificielle « human in the loop » !

 

Thomas Cohu, Directeur Produit chez Proxem