“When we're using services like Confluent for data delivery, we don't need to think about it. It just gets delivered.”
Nithin Prasad
Senior Engineering Manager, GEP Worldwide
En tant qu’organisation basée sur l’IA et spécialisée dans les solutions de chaîne logistique et d’approvisionnement, GEP dépend des données en temps réel pour piloter ses opérations. Auparavant, l’entreprise s’appuyait sur un traitement par lots trimestriel, ce qui retardait la production de rapports et la prise de décision pour ses clients.
« Pour une entreprise de chaîne d’approvisionnement comme GEP, fournir des informations avec un délai de 24 heures n'est pas une option. De nombreuses décisions doivent être prises rapidement pour garantir la livraison des données en temps voulu », explique Nithin Prasad, Senior Engineering Manager chez GEP Worldwide.
Une solution technique qui répond à 5 exigences métier essentielles
Pour remédier aux problèmes d’infrastructure de données et au coût élevé des retards de traitement, GEP devait trouver une alternative à ses anciens pipelines de livraison de données et à son environnement Apache Kafka® autogéré. L’équipe de Prasad a décidé d’adopter la plateforme de streaming cloud native entièrement gérée de Confluent pour connecter les systèmes opérationnels, analytiques et d’IA à son architecture de données.
Le passage à Confluent a été motivé par cinq exigences métier essentielles : fiabilité, évolutivité, prix, stockage et l’élément humain de l’engagement client. « Confluent est la solution la plus adaptée à nos besoins sur ces cinq points, a déclaré M. Prasad. Dans chaque scénario d'engagement client, nous avons reçu des commentaires positifs. »
Les connecteurs prédéfinis et entièrement gérés de Confluent, qui éliminent la nécessité de créer des intégrations personnalisées, ont particulièrement intéressé M. Prasad. Son équipe a ainsi pu réduire la multiplication des pipelines et les connexions point à point, en simplifiant la gestion des pipelines de données et en permettant aux développeurs de se concentrer sur la création de fonctionnalités de base plutôt que sur la microgestion de la logistique des données.
La livraison continue de données de Confluent a permis à GEP de construire des pipelines de données fiables qui ont connecté tous leurs systèmes, y compris ceux de stockage de données essentiels.
Dimensionnement et intégration fluides sur l’ensemble des systèmes
GEP a commencé initialement par traiter 500 000 événements dans un seul cluster. Après avoir adopté Confluent, l’entreprise est rapidement passée à la gestion d’un milliard d’événements par mois sur plusieurs clusters, le tout sans aucune perte de données. Ce progrès soudain en matière d’évolutivité a permis d’assurer un fonctionnement optimal des 500 microservices de GEP. « Chaque élément de données qui circule via GEP passe par Confluent », explique M. Prasad.
Grâce à la prise en charge multicloud de Confluent, GEP a intégré des données en temps réel provenant de plusieurs systèmes (base de données SQL, MongoDB et Elasticsearch) directement dans leur suite d'outils d’IA. Ces flux de données en temps réel ont permis à GEP de prévoir les pannes 30 minutes à l’avance, soit 1 400 % plus rapidement que le délai précédent de deux minutes. Cette approche proactive de la prévention des pannes a permis de minimiser les temps d’indisponibilité et d’améliorer l’accès des clients de GEP aux données, ce qui a renforcé leur taux de satisfaction (CSAT).
En adoptant la plateforme de streaming de données entièrement gérée de Confluent, GEP a réduit à la fois le temps et les coûts de maintenance. L’automatisation de tâches telles que la surveillance de l’infrastructure a également permis aux équipes de GEP de se concentrer sur la création de nouvelles fonctionnalités, et d’optimiser ainsi l’allocation des ressources.
Renforcer l’innovation en matière d’IA générative grâce au streaming de données en temps réel
M. Prasad a expliqué que les solutions axées sur l’IA de GEP s’appuient sur des données en temps réel, déclarant : « Confluent s’intègre parfaitement dans notre infrastructure de données. Il est intégré de manière native aux services Azure Open AI et aux autres modèles GPT. »
GEP a réussi à intégrer l’IA dans ses opérations quotidiennes. L'entreprise a transformé ses initiatives internes pilotées par l’IA entre les équipes et la direction en un chatbot d’IA générative qui fournit des résumés de documents et des informations clés, et qui signale aux clients les risques liés aux achats et aux opérations de la chaîne d’approvisionnement.
GEP offre également à ses clients la possibilité de créer leurs propres outils en utilisant l’IA générative à l'aide du langage naturel. Grâce aux pipelines de données de streaming de Confluent, GEP peut contextualiser ses modèles en temps réel, ce qui permet de répondre aux besoins spécifiques des utilisateurs instantanément et de résoudre leurs défis uniques. « C’est un avantage considérable pour les clients de GEP, car cela améliore considérablement l’expérience utilisateur, l’expérience client et les scores CSAT », a souligné M. Prasad.
Il est essentiel de disposer des bonnes données au bon format, au bon moment. Comme l'explique M. Prasad, « la livraison de données est aussi importante que l’apprentissage automatique. Toutes nos initiatives centrées sur l’IA seraient impossibles en l'absence des bonnes données. Et c’est là que Confluent nous aide vraiment. »
En ce qui concerne le choix d’une plateforme de streaming de données, M. Prasad recommande aux entreprises de choisir « un partenaire qui vous accompagnera pour de nombreuses années », en soulignant l’importance de l’alignement sur les valeurs fondamentales et l’engagement client.
En transformant ses capacités de gestion des données avec Confluent, GEP offre désormais à ses clients des solutions assistées par IA plus rapides, plus fiables et plus évolutives.
En savoir plus sur GEP Worldwide
Lancez-vous sur Confluent dès aujourd'hui
Pour toute inscription, recevez 400 $ à dépenser sous 30 jours.