Développez l'apprentissage automatique prédictif avec Flink | Atelier du 18 déc. | S'inscrire

Online Talk

Principes Fondamentaux Pour Apache Kafka®

Je m'inscris

Qu'est-ce qu'Apache Kafka®, et comment ça fonctionne?

Apache Kafka a été construit afin de devenir le système nerveux central qui met les données en temps réel à la disposition de toutes les applications qui en ont besoin, avec de nombreux cas d'usage comme la bourse et la détection des fraudes, le transport, l'intégration des données et l'analyse en temps réel.

Cette série de webinars en quatre parties donne un aperçu de ce qu'est Kafka, de ses usages et des concepts fondamentaux qui lui permettent d'alimenter une plateforme de streaming d'événements en temps réel hautement évolutive, disponible et résiliente. La série commence par une introduction au passage à la diffusion de données en temps réel, et se poursuit jusqu'aux meilleures pratiques pour le développement d'applications avec Apache Kafka et à la manière d'intégrer Kafka dans votre environnement.

Que vous soyez débutant ou que vous ayez déjà créé des applications de traitement de flux, vous trouverez dans cette série des informations pratiques qui vous permettront de tirer davantage de valeur commerciale de vos systèmes de données.

Inscrivez-vous dès maintenant pour apprendre Apache Kafka auprès de Confluent, la société fondée par les premiers développeurs de Kafka.

Les bénéfices du Streaming de données: Cas d'usage autour d'Apache Kafka
Disponible sur demande

Découvrez comment les entreprises utilisent les architectures événementielles pour transformer leurs activités et comment Apache Kafka sert de base aux applications de données en continu.

Apprenez comment les principaux acteurs du marché utilisent Kafka dans un large éventail de cas d'usage tels que les microservices et l'IoT, les activités bancaires de base et la détection des fraudes, la collecte et la diffusion de données en ligne, le remplacement des ESB, la mise en pipeline des données, le commerce électronique, le déchargement des serveurs centraux, etc.

Les différences entre Apache Kafka et Confluent Platform seront également abordées durant cette session.

L'architecture d'Apache Kafka et ses principes fondamentaux expliqués
Disponible sur demande

Cette session décrit la conception interne et l'architecture d'Apache Kafka. Des entreprises telles que LinkedIn envoient aujourd'hui plus d'un trillion de messages par jour via Apache Kafka. Découvrez la conception sous-jacente de Kafka qui permet d'obtenir un débit si élevé.

Cet exposé donne un aperçu complet de l'architecture et des fonctions internes de Kafka, notamment :

- Topics, partitions et segments
- Le journal de bord et les flux
- Les brokers et la réplication des brokers
- Les bases des producers
- Consommateurs, groupes de consommateurs et offsets
- Comment Apache Kafka fonctionne

Comment fonctionne Apache Kafka
Disponible à la demande

Découvrez les meilleures pratiques pour développer des applications avec Apache Kafka, à partir d'un aperçu du code de haut niveau pour un producteur et un consommateur de base. Nous aborderons ensuite les stratégies de création de puissantes applications de traitement des flux, notamment la haute disponibilité par réplication, la conservation des données, la conception des producers et leurs garanties.

Nous approfondirons les détails des garanties de livraison, y compris la sémantique exacte, les stratégies de partition et le rééquilibrage des groupes de consommateurs. Enfin, la session se terminera par une discussion sur des sujets compacts, des stratégies de dépannage et un aperçu de la sécurité.

Intégrer Apache Kafka dans votre environnement
Disponible à la demande

L'intégration d'Apache Kafka avec d'autres systèmes de manière fiable et évolutive est un élément clé d'une plate-forme de streaming événementielle. Cette session vous montrera comment faire entrer et sortir des flux de données de Kafka avec Kafka Connect et REST Proxy, maintenir les formats de données et assurer la compatibilité avec Schema Registry et Avro, et construire des applications de traitement de flux en temps réel avec Confluent KSQL et Kafka Streams.