Investimenti in soluzioni di Big Data? Mai senza conoscere il Roi

Mercato
1 1 Non ci sono commenti

Una riflessione di SB Italia prende le basi da uno studio Gartner relativo agli investimenti in Big Data, visti in discesa. Servono case history che dimostrino il Roi a fronte di un investimento in Big Data

La valutazione di un preciso Roi sull’investimento resta il principale ostacolo all’adozione di soluzioni Big Data. Secondo Luca Rodolfi, Responsabile della divisione di Business Intelligence di SB Italia, servono case history che spieghino e documentino il reale valore e il ritorno di questi investimenti. La riflessione di Rodolfi parte da uno studio di Gartner, secondo il quale,  il 48% delle aziende intervistate, a livello globale, nel corso del 2016 ha fatto investimenti in big data, dato in crescita del 3% rispetto al 2015.

Tuttavia, coloro che, sempre nel 2016, hanno intenzione di investire in big data entro i prossimi due anni è sceso dal 31% al 25% (-6%). “Il recente studio di Gartner evidenzia un calo del 6% delle aziende che hanno intenzione di investire in Big Data nel prossimo biennio: è un chiaro sintomo di come le tecnologie abilitanti all’analisi dei dati siano solo una delle tante componenti per il governo delle informazioni strutturate e non strutturate che l’ampio ambito Big Data propone. Questa controtendenza, rispetto alla crescita continua della Business Intelligence – spiega Rodolfi – sorprende fino a un certo punto: è infatti difficile per le aziende che valutano la possibilità di fare investimenti in ambito Big Data avere chiaro il vantaggio competitivo di dotarsi di tale tecnologia; la valutazione di un preciso Roi su tale investimento resta, a nostro avviso, il principale ostacolo all’adozione di soluzioni Big Data. E’ necessario proporre case history di successo che provino il reale valore di questi investimenti”.big data, business intelligence@shutterstock

Facendo qualche passo indietro, non tutti i comparti della Business Intelligence si sono comportati allo stesso modo. Secondo quanto riportato da Silicon.it, il comparto delle applicazioni evolute di analytics è quello a maggior crescita nell’ambito della Business Intelligence ed è previsto che il suo giro d’affari aumenti di quasi il 14 percento nel corso di quest’anno, arrivando a toccare il miliardo e mezzo di dollari. Sempre Gartner prevede che da qui al 2018 oltre la metà delle grandi aziende userà intensamente le applicazioni di advanced analytics e anche algoritmi proprietari per migliorare la propria posizione sul mercato. L’opinione di Gartner è che ormai non sia più sufficiente analizzare i propri dati in un’ottica di sola misurazione: serve anche una parte di analisi predittiva sempre più avanzata che supporti le decisioni dell’impresa, tanto che le aziende più all’avanguardia stanno già sviluppando algoritmi di analisi proprietari per arrivare più rapidamente a valutazioni più precise e approfondite. E non è una questione di dimensioni dell’azienda.

Gartner ha fatto altre due previsioni di fondo legate al mercato delle soluzioni di advanced analytics. La prima è che entro il 2018 solo una minoranza di aziende avrà attivato un approccio rigoroso per confermare l’affidabilità dei propri algoritmi di analisi. L’affidabilità non va intesa solo nel senso di precisione delle analisi ma anche di affidabilità in senso etico. L’analisi dei dati ha impatti commerciali, etici e sociali che pochi approfondiscono, ma questa poca attenzione può avere conseguenze importanti come perdere opportunità commerciali o mettere a rischio l’immagine del proprio brand.Gartner-Symposium-1024x768

E le normative stanno andando verso una direzione in cui una gestione male organizzata delle informazioni può comportare anche conseguenze legali. D’altro canto, secondo Gartner, gestire correttamente le questioni etiche permette di creare relazioni più produttive e più solide con clienti, fornitori e dipendenti, arrivando più in generale a una maggiore forza e fidelizzazione del proprio brand. La seconda previsione di Gartner è che da qui al 2018 si creerà un nuovo modo di acquisire e gestire sia i dati sia gli algoritmi di analisi, in un modello che combinerà le piattaforme PaaS con dei veri e propri “mercati” di algoritmi.

Questo per risolvere alcuni problemi che al momento complicano la condivisione di dati completi e dettagliati tra chi li raccoglie e li “anonimizza” da un lato e chi li consuma dall’altro. In futuro la “vendita” dei dati sarà strettamente collegata agli algoritmi in PaaS che li analizzeranno: alcuni potranno gestire dati sensibili e dettagliati, altri no. Questo approccio semplificherà la vita di chi fornisce dati e di chi li consuma: il controllo sarà sull’accesso agli algoritmi, il quale si rifletterà automaticamente sulle autorizzazioni all’accesso a determinate classi di dati, senza più bisogno di gestire complesse licenze e procedure di integrazione tra le fonti dei dati stessi e i sistemi informativi di chi li vuole analizzare.

Autore: Channelbiz
Clicca per leggere la biografia dell'autore  Clicca per nascondere la biografia dell'autore