Attunity® Compose for Data Lakes

La solution la plus rapide pour des data lakes prêts à l'emploi dans votre analytics.

Automatisez vos pipelines de données afin qu'ils soient prêts à l'emploi dans votre analytics

Attunity Compose for Data Lakes automatise vos pipelines de données afin de créer des jeux de données prêts à l'emploi dans votre analytics. En automatisant l'ingestion de data, la création de schémas et les mises à jour continues, les organisations accélèrent la valorisation de leurs data lakes.

Universal Data Ingestion

Ingestion universelle de données

Prenant en charge l'une des gammes les plus étendues de sources de données, Attunity Compose for Data Lakes ingère vos données dans votre data lake, que ce soit sur site, dans le Cloud ou dans un environnement hybride. Ces sources incluent, entre autres :

  • SGBDR : DB2, MySQL, Oracle, PostgreSQL, SQL Server, Sybase
  • Data warehouses : Exadata, IBM Netezza, Pivotal, Teradata, Vertica
  • Hadoop : Apache Hadoop, Cloudera, Hortonworks, MapR
  • Cloud : Amazon Web Services, Microsoft Azure, Google Cloud
  • Systèmes de messagerie : Apache Kafka
  • Applications d'entreprise : SAP
  • Systèmes existants : DB2 z/OS, IMS/DB, RMS, VSAM
Easy data structuring and transformation

Facilité de structuration et de transformation de la data

Une interface utilisateur intuitive et guidée vous permet de créer, de modéliser et d'exécuter des pipelines vers vos data lakes.

  • Générez automatiquement des schémas et des structures de catalogues Hive pour les ODS (Operational Data Stores, magasins de données opérationnelles) et les HDS (Historical Data Stores, magasins de données historiques), sans codage manuel.
Continuous updates

Mises à jour permanentes

Vous avez la certitude que vos ODS et HDS représentent précisément vos systèmes source.

  • Utilisez le processus Change Data Capture (CDC) pour permettre l'analytics en temps réel, tout en réduisant les coûts globaux d'administration et de traitement.
  • Traitez efficacement le chargement initial avec le threading parallèle.
  • Tirez parti d'un partitionnement temporel avec cohérence transactionnelle afin de vous assurer que seules les transactions terminées dans un laps de temps défini sont traitées.
Leverage the latest technology

Tirez parti des toutes dernières technologies

Profitez des dernières avancées de Hive SQL et d'Apache, notamment :

  • Les nouveautés au niveau de Hive SQL, y compris l'opération ACID MERGE qui traite, de façon efficace, les insertions, les mises à jour et les suppressions de données, tout en assurant leur intégrité.
  • Traitement « pushdown » vers les moteurs Spark ou Hadoop. La logique de transformation générée automatiquement est transmise à Hadoop ou à Spark pour traitement lorsque les données circulent dans le pipeline.
Historical data store

Magasin de données historiques

Générez des jeux de données spécifiques pour l'analytics à partir d'un magasin complet de données historiques (HDS).

  • De nouvelles lignes sont automatiquement ajoutées au HDS au fur et à mesure de l'arrivée de nouvelles données en provenance des systèmes source.
  • Les nouveaux enregistrements du HDS sont automatiquement horodatés, ce qui permet de créer des analyses de tendances et autres data marts analytiques basés sur le temps.
  • Prise en charge des modèles de données de type 2, ce qui ralentit l'évolution des dimensions.

Découvrez Attunity Compose for Data Lakes dès aujourd'hui.