Wie Steinemann zeigt, setzen Unternehmen jeder Branche und Größe AI-Tools ein, um wettbewerbsfähig zu bleiben. Die Folgen: Die Kosten steigen – und zwar erheblich. Das betrifft nicht nur die Kosten für AI-Tools selbst – auch die Cloud-Kosten legen zu.
Cloud-Plattformen sind die ideale Lösung für den Einsatz von AI-Modellen, das Speichern umfangreicher Datensätze und die schnelle Bereitstellung von Rechenleistung. Sie eignen sich hervorragend für Experimente und skalieren blitzschnell. Doch nicht selten folgt der Rechnung am Monatsende ein Preisschock. Mit dem Wachstum von AI-Projekten steigt auch der Bedarf an hoher Rechenleistung, was in der Regel zu einer intensiveren Cloud-Nutzung (und den entsprechenden Mehrkosten) führt.
Außerdem sollten Sie beachten, dass Sie alle Ihre Informationen nach der Erfassung noch für die AI aufbereiten müssen. Das wiederum kann zu einer noch stärkeren Fragmentierung der Lösungen und zu noch höheren Kosten führen, sofern diese Lösungen nicht – wie bei Steinemann – bereits integriert sind.
In einer idealen Welt könnten Sie AI-Modelle mit beliebigen Datensätzen füttern und diese wüssten automatisch, welche Daten brauchbar sind und welche nicht. Leider ist das (noch) nicht möglich. Bis dahin sollten Ihre Daten bestimmte Kriterien erfüllen, damit sie von der AI sofort verwendet werden können. Das kann zu einer Zeitersparnis von 50 % oder einem geschätzten Mehrwert von 2,5 Mio. US-Dollar im Datenbereich führen.18 Sie kennen das ja schon aus Teil 2: AI-bereit zu sein bedeutet, über Daten zu verfügen, die vielfältig, aktuell, genau, sicher, auffindbar und nutzbar sind.
Außerdem: Wer möchte schon Stunden mit dem manuellen Bereinigen und Übertragen von Daten verbringen? Niemand! Tools mit Low-Code- oder No-Code-AI-Funktionen können einen Großteil dieser Routineaufgaben übernehmen, etwa die Transformation, Deduplizierung und Formatierung von Daten. Dadurch kann sich Ihr Team ganz darauf konzentrieren, Erkenntnisse zu gewinnen. Außerdem machen diese Tool weniger Fehler und sind schneller.
Eine weitere Sache, auf die niemand gerne wartet, ist die Batch-Verarbeitung. Zumindest nicht, wenn man Daten direkt analysieren könnte, sobald sie verfügbar sind. Wenn Sie Streaming-Tools wie Kafka oder Kinesis einsetzen, sorgt die Echtzeiterfassung dafür, dass Ihre AI-Modelle jederzeit mit aktuellen Daten arbeiten. Das geht schneller, reduziert zusätzlichen Speicherbedarf und Ihr Team kann direkt reagieren.
Zu guter Letzt: Vermeiden Sie unbedingt Datenmüll. Wenn die gesamte Belegschaft Zugriff auf alle Ihre Daten hat, werden wahrscheinlich Daten dupliziert und weitere Speicherkosten anfallen. Zudem steigen die Ausgaben für Berechnungen, weil im Cloud-Data-Warehouse Abfragen durchgeführt werden. Ein einfacher Schritt wie die Einrichtung rollenbasierter Zugriffsrechte sorgt hier für Ordnung. Achten Sie nur darauf, dass die jeweiligen Teams immer auf alles zugreifen können, was sie brauchen. Auf diese Weise bezahlen Sie nicht für ungenutzte oder irrelevante Daten, die Ihre Systeme unnötig belasten.