Rejoignez les experts de Confluent - créateurs d'Apache Kafka®- et les experts d'Attunity – l’un des leaders logiciels d'intégration de données -, pour un webinaire où vous apprendrez à :

  • Accélérer la diffusion des données pour permettre l'analyse en temps réel avec des données live, à partir de nombreuses sources, et à grande échelle.

  • Permettre l’intégration mainframe « sans couture » et les requêtes d’offload pour les environnements analytiques modernes

  • SAP, DB2, Oracle, SQL et plus - transformer une base de données en un flux en quelques minutes

  • Étendre Apache Kafka avec la plate-forme Confluent pour offrir la pleine promesse d'une plateforme de streaming moderne.

Apache Kafka permet l’analyse Big Data en fournissant une plate-forme à grande échelle et à faible latence pour l'intégration et le traitement de flux de données en direct. Grâce à la gestion de données depuis différentes bases de données, les entreprises peuvent intégrer ces données via Kafka et en bénéficier pour prendre en charge leurs analyses ou les initiatives Data Lake. Cette ingestion de données en temps réel peut être difficile en raison de l'impact potentiel sur les systèmes sources, de la complexité du développement, et de la capacité à prendre en charge un grand nombre de sources de données. Attunity Replicate résout efficacement ces problèmes en fournissant des données en temps réel à partir de nombreux systèmes de bases de données sources exploitant la technologie CDC non intrusive.

Le webinaire comprend une démo utilisant un logiciel d'automatisation pour diffuser les changements en direct d'Oracle dans Kafka grâce à Attunity Replicate, et est suivi d’une session Questions/Réponses avec nos experts.

Speakers

Aurélien Goujet, Director of Solution Engineering, Southern Europe, Confluent

David Leconte, Solutions Engineer, Attunity

Tous les champs avec un (*) sont obligatoires.

Regarder maintenant!