TEIL 3

Wie Sie ausufernde Kosten durch Optimierung Ihrer Technologieausgaben senken

Ein grüner Rasenmäher mit dem Qlik-Logo mäht einen Rasen aus Symbolen in Form von Geldblumen.

In Teil 1 haben wir das enorme Potenzial von AI unter dem Blickwinkel der Produktivität betrachtet und in Teil 2 Strategien vorgestellt, um AI intelligent und verantwortungsbewusst einzusetzen und sich die Unterstützung wichtiger Stakeholder zu sichern. Mit dieser Unterstützung geht jedoch auch der Druck einher, innerhalb des vorgegebenen Budgets Spitzenergebnisse zu erzielen. Das befeuert die Angst, etwas falsch zu machen. 

Wir machen Ihnen keine Vorwürfe. Cloud-Kosten steigen ständig. Artificial Intelligence – sowohl traditionelle als auch GenAI – lässt die durchschnittlichen Cloud-Kosten in Unternehmen jährlich um über 30 % steigen.12 Fast 75 % der IT- und Finanzverantwortlichen empfinden diesen Kostenanstieg zunehmend als unkontrollierbar.12 Kommen dazu noch der Wildwuchs an Analysetools und ineffiziente Altsysteme, wird deutlich, warum so viele Organisationen vor finanziellen Herausforderungen stehen. Nicht zu vergessen: Sie können es sich einfach nicht leisten, ihre Glaubwürdigkeit gegenüber dem Management (oder ihr Selbstvertrauen) aufs Spiel zu setzen, wenn die Margen bereits so eng sind. 

Keine Panik! Atmen Sie erst einmal tief durch. Unterm Strich eröffnen sich Chancen. Indem Sie der Geschäftsleitung beweisen, dass AI sowohl eine funktionelle als auch eine profitable Investition sein kann, verwandeln Sie den AI-Hype in einen echten Vorteil. 

In diesem Teil geht es darum, die zunehmenden Ineffizienzen bei Ihren Daten- und Analysekosten zu ermitteln und beseitigen. Mit einem auf Ihre Geschäftsziele abgestimmten Strategiekonzept können Sie nicht nur Ihre AI- und Cloud-Investitionen optimieren, Sie erfahren auch, wie Sie typische Kostenfallen von vornherein vermeiden – und das alles, ohne Innovation einzuschränken. 

Können wir mit der Optimierung beginnen? 

Datenverluste und Budgetprobleme vermeiden

Es reicht nicht, Ihnen ein leeres Blatt zu geben und Sie aufzufordern, nach Ineffizienzen in Ihrem Technologiestack Ausschau zu halten. Solche Ineffizienzen müssen gezielt identifiziert, behoben und analysiert werden. Und genau das werden wir hier gemeinsam tun. 

In der Cloud treten häufig Ineffizienzen auf, da übermäßige Bereitstellungen, unzureichende Auslastung und Fehlkonfigurationen aus dem Ruder laufen und die Produktivität ausbremsen können. In Ihrer IT-Umgebung werden ineffiziente Datentools eingesetzt (oder auch nicht eingesetzt), was sich negativ auf die Akzeptanz auswirkt – Technologiemüdigkeit ist nicht nur ein Modewort. Und dann gibt es noch die sichtbaren und oft unvorhergesehenen Kosten für die Datennutzung, die ein Budget in kürzester Zeit aufzehren.   

Ohne einen proaktiven Ansatz werden Dateninitiativen immer auf Hindernisse stoßen und ausufern. Das macht sie zu bevorzugten Kandidaten für Budgetkürzungen und Streichungen. Als Verantwortlicher müssen Sie wissen, wo diese Problembereiche liegen und wie Sie sie beheben. 

Zum Glück gibt es ganz unabhängig von Ihrer Branche einige Bereiche, die Sie unter die Lupe nehmen können. Zunächst jedoch liefert unser nächstes Datenpionier-Szenario ein überzeugendes Praxisbeispiel.

Datenpionier-Szenario Nr. 7

DAS PROBLEM IDENTIFIZIEREN

Der Konsumgüterkonzern Georgia-Pacific hatte Probleme, seine Marketingausgaben und -investitionen in den Griff zu bekommen. Es gab keinen schnellen und effizienten Zugriff auf wichtige Daten, wodurch Berichts- und Analyseprozesse langsam und teuer waren. 

MIT DATEN NEUE WEGE GEHEN

Als klar wurde, dass die Teams allein mit der Datenerfassung und -aufbereitung rund 30.000 Stunden verbrachten, wurde ein Großteil der internen und externen Datenquellen auf einer Self-Service-Plattform zusammengeführt. 

ERGEBNISSE ERZIELEN
  • Optimierte interne Prozesse bringen Budgeteinsparungen in Höhe von mehreren Millionen US-Dollar. 

  • Dank der einen konsistenten Datenbasis finden Anwender Daten deutlich schneller. 

  • Eine Vielzahl von Dashboards und Berichtsanwendungen wurde entwickelt. 

  • Die Beschäftigten können gezieltere Strategien zur Risikominimierung entwickeln und flexibel auf sich ändernde Business-Anforderungen reagieren. 

  • Akzeptanz und Nutzung der Plattform nahm unternehmensweit spürbar zu. 



Georgia-Pacific-Logo
Durch die Entlastung beim Erfassen, Aufbereiten und Validieren der Daten aus dem Business … werden wir in den kommenden Jahren voraussichtlich mehrere Millionen Dollar einsparen.
Brian Sullivano
Senior Director Marketing Operations | Georgia-Pacific


Datentools: aber ja! Fragmentierte, doppelt vorhandene Datentools: auf keinen Fall! Die Lösung: Ballast abwerfen. 

Einer Studie zufolge verbringen fast 70 % der Beschäftigten mehr als 20 Stunden pro Woche damit, in den unterschiedlichsten Datensilos nach Tools und Informationen zu suchen.13 Was für eine Zeitverschwendung! Das ist jedoch die Realität bei vielen separaten Datentools. Die Datenteams können nur schwer auf die im Unternehmen vorhandenen Technologien zugreifen und diese nutzen. Und wenig überraschend: Zeitaufwändige Aufgaben erschweren es Beschäftigten, schnell zu reagieren und fundierte Entscheidungen zu treffen. Fragen Sie einmal das Marketingteam von Georgia-Pacific. Schlimmer noch: Durch die Fragmentierung werden Sie anfällig für Compliance-Probleme. Das gilt besonders, wenn Sie mit persönlichen oder sensiblen Daten arbeiten. 

Und da bereits jetzt 25 % der Datenteams von Problemen bei der Implementierung von AI-Tools berichten14, führt die Fragmentierung der Datentools zu noch mehr Ineffizienz, zusätzlichen Kosten und einer Reduzierung der Akzeptanz von AI. 

  1. Prüfen Sie Ihre Daten- und Analyseumgebung: Achten Sie auf Tools, deren Verwendungszweck sich überschneidet – vor allem, beim Einsatz in unterschiedlichen Abteilungen. Solche Überschneidungen entstehen oft schleichend, etwa wenn neue Funktionen oder Projekte eingeführt werden. Häufig achten Teams nicht auf strikte Datenqualität oder Governance, sodass nicht überwacht und gesteuert wird, wie welche Tools verwendet werden. Wo fängt man bei einem Audit eigentlich an? Hinweise dazu finden Sie weiter unten beim Tipp für Datenpioniere.

  2. Setzen Sie auf unternehmensweite Daten- und Analyselösungen: Dank durchgängiger Transparenz und Skalierbarkeit lassen sich strukturierte und unstrukturierte Daten leichter abrufen und untersuchen, ganz gleich, ob sie in Lakehouses, Warehouses oder sogar in offenen Lakehouses gespeichert sind. Zudem ermöglicht der Einsatz einer zentralen Lösung nicht nur eine bereichsübergreifende Nutzung, sondern senkt auch die Kosten für Wartung, Lizenzen und Integration. Das frei werdende Budget können Sie dann anderweitig einsetzen, beispielsweise zur Einstellung zusätzlicher Mitarbeiter oder für Investitionen in Fortbildungen.

Nächster Punkt: Ineffizienzen in der Cloud. Im Allgemeinen meinen wir damit Ressourcen, die überdimensioniert, unzureichend genutzt oder fehlkonfiguriert sind. Mit anderen Worten: Sie nutzen nicht das, was sie haben, Sie haben nicht genug oder was sie haben, arbeitet nicht zufriedenstellend. Die Folgen reichen von höheren Kosten über Performance-Probleme bis zu Sicherheitslücken. Fun Fact: Noch im Jahr 2024 hatten 78 % der Unternehmen weniger als 75 % ihrer Cloud-Ausgaben verplant.15 Das bedeutet: Mit klugen Managementmaßnahmen können Sie jetzt ganz vorn mit dabei sein. 

Ein Aspekt, der genauere Betrachtung verdient, sind die Kosten für Analyseabfragen. Das ist einer der Bereiche, in denen nicht alle Tools gleich sind. Einige Lösungen bieten In-Memory-Abfrage-Caching und Indizierung. Das reduziert nicht nur die Zahl der Abfragen an das zentrale Data Warehouse und spart somit Kosten, sondern sorgt auch für schnellere Ausführung, höhere Verfügbarkeit und ein besseres Anwendererlebnis.  

Fakt ist, Daten werden immer teurer. GenAI-Abfragen etwa erfordern enorme Rechenleistung und entsprechend hohe Investitionen in die Backend-Infrastruktur. Wenn Sie jetzt noch die gestiegenen Anforderungen durch GenAI und agentenbasierte Modelle berücksichtigen, wird schnell klar: Bis 2027 müssen Sie mit höheren Energiekosten rechnen als bei jeder anderen IT-Initiative.16  

Zwei Frauen in einem Büro sind in ein Gespräch vertieft, wobei eine von ihnen sich Notizen macht.

Tipp für Datenpioniere

Im Rahmen der in Teil 2 erörterten Governance-Vorgaben erweitern einige Organisationen ihre Richtlinien um Energiekosten und Maßnahmen zur Eindämmung unkontrollierter Ausgaben. Plattformfunktionen wie Echtzeitüberwachung und automatische Alerts bei Nutzungsanomalien können regelmäßige Audits ergänzen und helfen, unnötige Kosten zu vermeiden. Darüber hinaus gibt es bei den meisten Datenanbietern mittlerweile Preismodelle, bei denen Ihr Team lediglich für die tatsächlich genutzten Ressourcen zahlt, statt einen monatlichen Festpreis pro User. Sofern Sie noch kein nutzungsbasiertes Preismodell verwenden, sollten Sie sich an Ihren Plattformanbieter wenden, weil Sie dadurch unnötige Kosten möglicherweise vermeiden können. 

Preise im Blick: Ausgaben für AI und Cloud optimieren

Es ist ein zweischneidiges Schwert, das Datenpioniere nur allzu gut kennen: Soll ich mich auf die Performance konzentrieren und dabei höhere Kosten in Kauf nehmen? Oder eher Kosten eindämmen und dafür Abstriche bei der Performance machen? Wir empfehlen: Gehen Sie weder bei der Performance noch bei den Kosten Kompromisse ein.  

Für AI werden enorme Rechenkapazitäten benötigt. Allerdings verschlechtern sich viele ML-Modelle bereits nach kurzer Zeit, sodass kostspieliges Retraining erforderlich wird. Fragmentierte Daten erhöhen den Speicherbedarf und dass Daten für AI aufbereitet werden müssen, fällt vielen erst später ein. 

Derzeit versuchen Unternehmen, den goldenen Mittelweg zwischen schnellem Handeln und klugem Einsatz ihrer finanziellen Mittel zu finden. Es geht nicht nur um Kosteneinsparungen, sondern auch darum, an den richtigen Stellen zu investieren und sicherzustellen, dass die Teams keine Ressourcen doppelt oder auf Vorrat anhäufen. Sehen Sie sich in unserem nächsten Datenpionier-Szenario an, wie Steinemann dies umgesetzt. 

Datenpionier-Szenario Nr. 8

DAS PROBLEM IDENTIFIZIEREN

Bei Steinemann, einem mittelständischen Unternehmen aus dem Bereich der Fleischverarbeitung, gab es Probleme mit fehlerhaften Rohwaren-Forecasts, die auf veralteten Daten beruhten, was zu Engpässen, aber auch zu Überbeständen führte. Darüber hinaus wurden historische Daten zeitraubend von Hand zusammengestellt.   

MIT DATEN NEUE WEGE GEHEN

Das Unternehmen implementierte ein Analyseprogramm mit integriertem Machine Learning. Ihr Modell wurde dann mit den relevanten Absatzzahlen der letzten drei Jahre trainiert, inklusive granularer Datenpunkte wie Wochentagen, Produktnummern und Kundendaten.

ERGEBNISSE ERZIELEN
  • Produktionsplanung mit einer Prognosegenauigkeit von 90 % 

  • Steuerung der Produktionszahlen in Echtzeit 

  • Geringere Fehlerquote 

  • Mehr Effizienz




Steinemann-Logo in Weiß
Als wir die von der AI erstellten Forecasts mit unserem Ist-Umsatz verglichen, konnte selbst ich nicht glauben, wie nahe die Zahlen beieinander lagen.
Ralf Lenger
Leiter IT | Steinemann Holding GmbH & Co. KG




Wie Steinemann zeigt, setzen Unternehmen jeder Branche und Größe AI-Tools ein, um wettbewerbsfähig zu bleiben. Die Folgen: Die Kosten steigen – und zwar erheblich. Das betrifft nicht nur die Kosten für AI-Tools selbst – auch die Cloud-Kosten legen zu. 

Cloud-Plattformen sind die ideale Lösung für den Einsatz von AI-Modellen, das Speichern umfangreicher Datensätze und die schnelle Bereitstellung von Rechenleistung. Sie eignen sich hervorragend für Experimente und skalieren blitzschnell. Doch nicht selten folgt der Rechnung am Monatsende ein Preisschock. Mit dem Wachstum von AI-Projekten steigt auch der Bedarf an hoher Rechenleistung, was in der Regel zu einer intensiveren Cloud-Nutzung (und den entsprechenden Mehrkosten) führt. 

Außerdem sollten Sie beachten, dass Sie alle Ihre Informationen nach der Erfassung noch für die AI aufbereiten müssen. Das wiederum kann zu einer noch stärkeren Fragmentierung der Lösungen und zu noch höheren Kosten führen, sofern diese Lösungen nicht – wie bei Steinemann – bereits integriert sind.

In einer idealen Welt könnten Sie AI-Modelle mit beliebigen Datensätzen füttern und diese wüssten automatisch, welche Daten brauchbar sind und welche nicht. Leider ist das (noch) nicht möglich. Bis dahin sollten Ihre Daten bestimmte Kriterien erfüllen, damit sie von der AI sofort verwendet werden können. Das kann zu einer Zeitersparnis von 50 % oder einem geschätzten Mehrwert von 2,5 Mio. US-Dollar im Datenbereich führen.18 Sie kennen das ja schon aus Teil 2: AI-bereit zu sein bedeutet, über Daten zu verfügen, die vielfältig, aktuell, genau, sicher, auffindbar und nutzbar sind. 

Außerdem: Wer möchte schon Stunden mit dem manuellen Bereinigen und Übertragen von Daten verbringen? Niemand! Tools mit Low-Code- oder No-Code-AI-Funktionen können einen Großteil dieser Routineaufgaben übernehmen, etwa die Transformation, Deduplizierung und Formatierung von Daten. Dadurch kann sich Ihr Team ganz darauf konzentrieren, Erkenntnisse zu gewinnen. Außerdem machen diese Tool weniger Fehler und sind schneller. 

Eine weitere Sache, auf die niemand gerne wartet, ist die Batch-Verarbeitung. Zumindest nicht, wenn man Daten direkt analysieren könnte, sobald sie verfügbar sind. Wenn Sie Streaming-Tools wie Kafka oder Kinesis einsetzen, sorgt die Echtzeiterfassung dafür, dass Ihre AI-Modelle jederzeit mit aktuellen Daten arbeiten. Das geht schneller, reduziert zusätzlichen Speicherbedarf und Ihr Team kann direkt reagieren. 

Zu guter Letzt: Vermeiden Sie unbedingt Datenmüll. Wenn die gesamte Belegschaft Zugriff auf alle Ihre Daten hat, werden wahrscheinlich Daten dupliziert und weitere Speicherkosten anfallen. Zudem steigen die Ausgaben für Berechnungen, weil im Cloud-Data-Warehouse Abfragen durchgeführt werden. Ein einfacher Schritt wie die Einrichtung rollenbasierter Zugriffsrechte sorgt hier für Ordnung. Achten Sie nur darauf, dass die jeweiligen Teams immer auf alles zugreifen können, was sie brauchen. Auf diese Weise bezahlen Sie nicht für ungenutzte oder irrelevante Daten, die Ihre Systeme unnötig belasten.

Eine Frau sitzt vor einem Computer und arbeitet mit ihrem Smartphone.

Tipp für Datenpioniere

Ein völlig neues Konzept entwickeln

Bei der Kostenoptimierung kommt es auf eine Sache an: Sie muss sofort stattfinden und später und immer wieder. Denn sobald Sie nachlassen, riskieren Sie, dass die Kosten im Nu wieder in die Höhe schnellen. 

Aber reden wird nicht um den heißen Brei herum: Bei dieser Strategie geht es nicht nur um Geld. Es geht vielmehr darum, ein nachhaltiges Geschäftsmodell unter Berücksichtigung von Skalierbarkeit und Wachstum zu entwickeln. Denn ohne einen festen Plan ist es schwierig, die unsichtbaren Kräfte, die bei Daten und AI zu Ineffizienz führen, zu erkennen, nachzuverfolgen und gezielt anzugehen. 

Unser letztes Datenpionier-Szenario verdeutlicht den Nutzen einer nachhaltigen Kostenstrategie. 

Datenpionier-Szenario Nr. 9

DAS PROBLEM IDENTIFIZIEREN

HARMAN, Hersteller von vernetzten Fahrzeugtechnologien und Lifestyle-Audioprodukten, verfügte über keinen abteilungsübergreifenden Analysestandard, um Kontinuität und Qualität bei der App-Entwicklung sicherzustellen. Das Finden und Validieren von Daten mithilfe mehrerer Tools war daher äußerst mühselig. 

MIT DATEN NEUE WEGE GEHEN

Durch das Zusammenführen der Datensilos in einer zentralen und konsistenten Datenbasis lassen sich Erkenntnisse schneller gewinnen. Dazu kommt ein integrierter GenAI-Chat zum Einsatz, der alle Business-Aspekte abdeckt und die Beantwortung unstrukturierter Anfragen ermöglicht. 

ERGEBNISSE ERZIELEN
  • Daten sind innerhalb weniger Minuten verfügbar, wodurch die Produktivität verbessert wurde. 

  • Ineffizienzen, die das Erreichen der Unternehmensziele ausbremsten, wurden beseitigt, was zu nachhaltigem Wachstum und höherer Rentabilität führt. 

  • Durch die Umstellung von Monatsberichten auf tägliche Analysen werden Fehler wie auch Chancen besser erkannt. 

  • AI-gestützte Prognosen identifizieren potenzielle Auswirkungen auf den Betrieb. 

  • Mehr Effizienz



Firmenlogo von HARMAN
Wir haben alle Daten, die wir brauchen, um in Minuten Antworten zu erhalten. So können wir rasch gegensteuern und gleichzeitig verschiedene Aspekte unseres Geschäfts effektiv managen.
Nick Parrotta
President Digital Transformation Solutions und CDIO | HARMAN



AI-Workloads sind immer ressourcenintensiv. Und wenn Sie nicht aufpassen, können Ihre Modelle schneller ein Loch in Ihr Budget brennen als Sie „Halt!“ sagen können. Die meisten Teams verbrauchen viel zu viel Rechenleistung für ein Problem oder trainieren Modelle häufiger als nötig neu. Sie halten zu selten inne und fragen sich: „Lohnt sich das überhaupt?“ Das ist, als würden Sie mit aufheulendem Motor durch den Stadtverkehr fahren: auffällig, aber nicht gerade effizient. 

Setzen Sie stattdessen auf flexible Preismodelle und Kostenkontrolle und vermeiden Sie Abos mit festen Tarifen, die die tatsächliche Nutzung nicht berücksichtigen. Dieses, auch als verbrauchsabhängiges Preismodell bekannte Angebot ist eine noch relativ neue, aber zunehmend beliebte Option für Unternehmen, die nur für tatsächlich genutzte Leistungen zahlen möchten. Seine Beliebtheit ist einleuchtend, wenn man bedenkt, wie viel Flexibilität (z. B. bei der Skalierbarkeit) es Unternehmen bietet, ohne zusätzliche Risiken mit sich zu bringen. 

Datensilos sind ein weiterer erheblicher Kostenfaktor. Wenn Ihre Datenpipelines und Analysetools nicht aufeinander abgestimmt sind, entstehen Probleme. Am Ende müssen Sie dieselben Daten häufiger als nötig hin und her übertragen und Abfragen wiederholen, während im Hintergrund die Kosten für diese Schatten-IT langsam aber stetig wachsen. Diese ganze Fragmentierung erschwert eine exakte Kostenermittlung und noch schwieriger ist es, die Gemeinkosten zu kontrollieren. 

Sie sollten daher einmal darüber nachdenken, Ihre Tools in einer zentralen, AI-gesteuerten Plattform zu konsolidieren. Anschließend nutzen Sie diese Plattform, um Echtzeit-Dashboards zu erstellen, mit denen Sie Datennutzung und Ausgaben im Blick behalten und Kostenanomalien erkennen können, bevor sie Ihr Budget aufzehren. Entwickeln Sie dann in den verschiedenen Abteilungen weitere Anwendungen, die unentdeckte oder unerwartete Ausgaben erkennen, bevor sie sich zu einem Problem entwickeln, und spüren Sie versteckte Effizienzpotenziale in Ihrem gesamten Unternehmen auf.  

Tatsache ist doch, dass sich Technologiebudgets auf verschiedene Bereiche verteilen: Ein Teil landet beim Marketing, ein anderer bei der IT, und ein wenig geht möglicherweise sogar an die Personalabteilung. So kommt eins zum anderen. Ohne klare Führung entsteht so bald eine gesetzesfreie Zone, in der Teams unüberlegte Investitionen tätigen und niemand weiß mehr, wie viel wo ausgegeben wird. 

Gelegenheiten muss man ergreifen. Nutzen Sie Ihre Chancen und stellen Sie dabei sicher, dass Ihre AI- und Cloud-Initiativen sich an Ihren Geschäftszielen orientieren. Alle Projektbeteiligten sollten genau verstehen, welche Ausgaben mit der Entwicklung von AI verbunden sind und auch die Kosten für Cloud-Speicher, Software, Datenübertragung und Betrieb kennen. Achten Sie außerdem darauf, dass Sie diese Ausgaben gegenüber Kosteneinsparungen, Umsatzsteigerungen und anderen KPIs rechtfertigen können.

In einem Besprechungsraum weist ein Mann auf etwas hin, während andere am Tisch aufmerksam zuhören.

Tipp für Datenpioniere

Kosten senken, bevor sie Ihnen zum Verhängnis werden

Bleiben Sie stets wachsam, denn wenn Sie nicht aufpassen, riskieren Sie, dass Datennutzer (also im Grunde jeder) Ihr Budget überstrapazieren – oder schlimmer noch, dass Ihre Rentabilität, Ihre Produktivität und Ihr guter Ruf bis hinauf in die Chefetage Schaden nimmt. 

Aber das muss nicht sein. Um sicherzustellen, dass Daten, Integration und AI-Initiativen den Anforderungen optimal gerecht werden, brauchen Sie ein ausgeprägtes Gespür für Ineffizienz und sorgfältige Planung. Und das bekommen Sie sicher hin. 

Ein grüner Rasenmäher mit dem Qlik-Logo mäht einen Rasen aus Symbolen in Form von Geldblumen.

Checkliste für Datenpioniere, Teil 3

  • Behalten Sie fragmentierte Datentools, Cloud-Ineffizienzen und die mit AI einhergehenden Mehrkosten im Auge. 

  • Achten Sie bei KI und Cloud-Kosten auf ein ausgewogenes Verhältnis zwischen Performance-Anforderungen und Ausgaben. 

  • Entwickeln Sie eine nachhaltige Kostenstrategie, zu der kontinuierliche, integrierte Mechanismen zur Kostenkontrolle ebenso gehörten wie Alerts, die Sie benachrichtigen, wenn Ressourcen verschwendet werden und Technologieausgaben steigen.

Wir nähern uns dem Ende. Fortfahren oder noch einmal zurückgehen?

12 CIO Dive: „AI adoption drives ‘unmanageable’ spike in cloud costs“, 2024 (In Englisch)

13 Quickbase: „Roadblocks to the Dynamic Enterprise“, 2023 (In Englisch)

14 DataRobot: „The Unmet AI Needs Survey“, 2024 (In Englisch)

15 CloudZero: „The State Of Cloud Cost In 2024“, 2024 (In Englisch)

16 Surveil: „2025: The Year AI Transforms Cloud Cost Management“, 2025 (In Englisch)

17 ITPro Today: „Data Storage and Analytics Trends and Predictions 2025 From Industry Insiders“, 2025 (In Englisch)

18  Forrester: „The Total Economic Impact™ of Qlik Cloud Analytics™“, 2024 (In Englisch)

19CloudZero,  https://www.cloudzero.com/blog/cloud-spend-a-board-level-issue/, 2022 (In Englisch)