Qlik Compose™ for Data Lakes

Der schnellste Weg zu analysebereiten Data Lakes

Analysebereite Datenpipelines automatisieren

Qlik Compose for Data Lakes (ehemals Attunity Compose) automatisiert Ihre Datenpipelines und sorgt für analysebereite Datensets. Durch die Automatisierung von Datenerfassung, Schemaerstellung und Updates machen sich Ihre bestehenden Data Lakes noch schneller bezahlt und können zur Wertschöpfung beitragen.

Daten einfach strukturieren und transformieren

Eine intuitive, geführte Benutzeroberfläche unterstützt Sie bei Aufbau, Modellierung und Ausführung von Data-Lake-Pipelines.

  • Schemata und Hive-Katalogstrukturen für Operational Data Stores (ODS) und Historical Data Stores (HDS) lassen sich ohne manuellen Programmieraufwand automatisch erzeugen.

Stets auf dem neuesten Stand

Sie können sicher sein, dass Ihre ODS und HDS Ihre Quellsysteme jederzeit korrekt abbilden.

  • Mit Change Data Capture (CDC) werden Echtzeitanalysen mit geringerem Administrations- und Verarbeitungsaufwand möglich.
  • Beim ersten Laden sorgt Multi-Threading für höchste Effizienz.
  • Nutzen Sie zeitbasierte Partitionierung mit transaktionaler Konsistenz, um ausschließlich Transaktionen zu verarbeiten, die innerhalb eines bestimmten Zeitraums abgeschlossen wurden.

Die Vorteile modernster Technologie nutzen

Profitieren Sie von Weiterentwicklungen bei Hive SQL und Apache Spark, unter anderem von:

  • den aktuellen Neuerungen bei Hive SQL, beispielsweise der ACID-MERGE-Funktion, mit der sich Insert-, Update- und Delete-Vorgänge unter Einhaltung der Datenintegrität effizient verarbeiten lassen;
  • Pushdown-Verarbeitung auf Hadoop- oder Spark-Engines. Während Daten durch die Pipeline fließen, wird automatisch generierte Transformationslogik per Pushdown zur Verarbeitung an Hadoop oder Spark weitergeleitet.

Historical Data Store (HDS)

Gewinnen Sie analysespezifische Datensets aus einem vollständigen Historical Data Store (HDS).

  • Datenaktualisierungen aus Quellsystemen werden dem HDS automatisch als neue Datensätze hinzugefügt.
  • Diese neuen Datensätze erhalten automatisch einen Zeitstempel. Dadurch wird das Erstellen von Trendanalysen und anderen zeitorientierten Analyse-Data-Marts möglich.
  • Datenmodelle mit Slowly Changing Dimensions (SCD) vom Typ 2 werden ebenfalls unterstützt.

Entdecken Sie unsere Lösungen für die moderne Datenintegration.

  • Echtzeit-Datenstreaming (CDC)

    Stellen Sie mit einer einfachen, universellen Echtzeit-Lösung Unternehmensdaten als Live-Streams bereit und ermöglichen Sie moderne Analysen und Microservices.
  • Agile Data-Warehouse-Automatisierung

    Entwickeln, erstellen, implementieren und verwalten Sie maßgeschneiderte Data Warehouses in der Cloud ohne manuellen Programmieraufwand.
  • Erstellen verwalteter Data Lakes

    Automatisieren Sie komplexen Erfassungs- und Umwandlungsprozesse und sorgen Sie für kontinuierlich aktualisierte, analysebereite Data Lakes.

Bericht

Agile Data Warehouse and Data Lake Automation: InBrief-Report der Bloor Group

Datenblatt

Lösungsbeschreibung für Hadoop-Datenerfassung mit Qlik

Whitepaper

Fünf Prinzipien zum effektiven Management Ihrer Data-Lake-Pipeline

Lernen Sie Qlik Compose for Data Lakes noch heute kennen