Come dimostra il caso di Steinemann, aziende di ogni tipo e dimensione stanno adottando strumenti AI per restare competitive, e questo significa solo una cosa: la spesa è destinata ad aumentare. E di molto. Non solo per gli strumenti AI in senso stretto, ma anche per i costi del cloud.
Le piattaforme in cloud sono l'ambiente prediletto per l'esecuzione dei modelli AI, lo stoccaggio di dataset massivi e l'attivazione di potenza di elaborazione "al volo". Consentono di sperimentare e crescere velocemente, ma possono anche provocare uno shock quando arriva la bolletta mensile. Di pari passo con i progetti AI cresce il fabbisogno di potenza di calcolo e anche l'utilizzo del cloud (con i relativi costi) tende ad aumentare.
Inoltre, ricorda che quando tutte le informazioni sono state caricate devono essere preparate per l'AI, con un'ulteriore frammentazione delle soluzioni e dei costi, a meno che, come nel caso di Steinemann, queste soluzioni non siano incorporate.
In un mondo perfetto sarebbe possibile fornire ai modelli AI qualsiasi dataset, e il modello sarebbe in grado di distinguere fra dati buoni e cattivi. Purtroppo non è così (almeno per ora). Per il momento, i dati devono rispettare alcuni criteri per essere utilizzabili immediatamente dall'AI, con un risparmio di tempo del 50% o di 2,5 milioni di dollari in valore, quando si parla di dati.18 Ribadiamo il concetto espresso nella Parte 2: essere pronti per l'AI significa avere dati diversificati, tempestivi, accurati, sicuri, accessibili e fruibili.
Inoltre, chi vuole passare ore a pulire o spostare dati manualmente? Nessuno. Strumenti con funzionalità AI Low-Code o No-Code possono gestire gran parte di questo lavoro fastidioso, come la trasformazione, la deduplicazione e la formattazione dei dati, in modo che il team possa concentrarsi sugli insight veri e propri. E c'è un ulteriore vantaggio: questi strumenti riducono gli errori e velocizzano i processi.
Un'altra cosa che non piace a nessuno è attendere l'elaborazione di un batch. Soprattutto se esiste la possibilità di ottenere insight non appena vengono immessi i dati. Utilizzando strumenti in streaming come Kafka o Kinesis e configurando l'acquisizione di dati in tempo reale, i modelli AI lavoreranno su dati freschi. Si tratta di un metodo più veloce, che riduce la necessità di storage extra e aiuta i team a reagire prontamente.
Infine, bisogna evitare in ogni modo lo spreco di dati. Se tutti hanno accesso ai dati, esiste una grande probabilità che questi vengano duplicati, facendo lievitare i costi di stoccaggio e di elaborazione quando si interrogano i data warehouse in cloud. Una mossa semplice come configurare gli accessi in base al ruolo aiuta a mantenere l'ordine. Sarà sufficiente assicurarsi che ogni team abbia ciò di cui ha bisogno. In questo modo non pagherai per conservare dati inutilizzati o irrilevanti nei sistemi aziendali.