Accélérer l’ingestion des données au fil de l’eau et automatiser le transfert des données vers Hadoop

Le Big Data est en train de transformer la manière dont les entreprises gèrent et utilisent leurs données. Elles ont désormais plus de données qu’auparavant, statiques et au fil de l’eau, en provenance de sources plus nombreuses au travers de l’organisation.

Elles ne peuvent se permettre de rater l’opportunité d’obtenir plus de connaissances en raison du temps nécessaire à la préparation des données et leur mise à disposition. Elles ont également besoin de solution de chargement à l’épreuve de l’entreprise, allant bien au-delà d’outils comme sqoop, plus adapté aux environnement de test et de développement.

Regardez ce webinaire pour comprendre comment les solutions d’Attunity et Hortonworks adressent ces difficultés. Vous verrez:

  • Comment ingérer des données au fil de l’eau et les transférer vers Hadoop
  • Des cas d’usage réels d’Hortonworks DataFlow (HDF), basé sur Apache™ NiFi
  • Comment combiner les CDC en temps au fil de l’eau et les plateformes connectées d’Hortonworks

hortonworks.pngVous verrez également une démo conjointe d’Attunity Replicate et HDF pour alimenter des données opérationnelles au fil de l’eau vers Hadoop.

Les champs marqués d'une (*) sont obligatoires.

Regarder maintenant!