La narrazione dei Big Data non è nuova: più dati ci sono meglio è. Di certo ne stiamo ottenendo sempre di più. Entro il 2025 produrremo 163 trilioni di gigabyte all'anno, il che equivale a 276 miliardi di persone in più su Facebook o a 150.000 e-mail in più al giorno. È un sacco di spam.
Ma tutti questi dati sono un bene? Dipende da come li si usa. Una quantità enorme di dati non servirà a molto se non li sfruttiamo adeguatamente.
Se non consolidiamo la struttura analitica per garantire che il maggior numero di persone tragga il massimo beneficio dai propri pool di dati. È proprio questo il problema che le aziende devono affrontare.
Più dati, più problemi
Ci sono tonnellate di dati e le aziende stanno tirando la coperta per rendere i loro sistemi all'altezza di gestirli tutti.
Secondo uno studio di Gartner, l'87% delle organizzazioni soffre di "scarsa maturità in materia di BI e analisi".
Ciò significa che sono meno preparati a modernizzare le loro capacità di BI, a causa di un'infrastruttura IT "primitiva o antiquata", di una grande distanza tra l'IT e gli utenti aziendali e di tutto il tempo perso per la preparazione e la modellazione dei dati affidata a team di esperti di analisi.
Le strutture sono spesso frammentate, così come gli stessi dataset: team diversi utilizzano strumenti di BI diversi per elaborare i dati in silos diversi.
Anche questi strumenti di analisi dei big data possono essere fonte di confusione, per cui i membri del team esiteranno a utilizzarli.
Tutto questo aggrava il fatto che le informazioni provenienti dai dati non siano semplici, di facile accesso o in grado di coprire le necessità aziendali.
In altre parole, gli insight non sono così significativi come dovrebbero.
Efficientare i sistemi e unificare i silos di dati in un unico pool virtuale può essere il primo passo per aiutare tutti a ottenere valore dai dati aziendali. Per consentire all'utente finale medio di prendere decisioni data driven.
Verso l'apertura dell'accesso ai dati. Per dare un senso alla vera democratizzazione dei dati.
Quindi, che dire dell'alfabetizzazione ai dati?
Diciamo che i dati di un'organizzazione si trovino in un unico luogo e sono accessibili a tutti gli utenti finali che ne hanno bisogno. Che siano democratizzati. Questo significa che gli utenti finali avranno le competenze per interpretarli correttamente e ricavarne tutto il valore? Probabilmente no.
Secondo Gartner, la scarsa alfabetizzazione ai dati e la mancanza di competenze o di personale competente sono il secondo e il terzo ostacolo al successo dei Chief Data Officer.
Questo dato è stato confermato da uno studio dell'Università della Pennsylvania, secondo il quale solo il 24% dei decision maker senior ha superato un test di alfabetizzazione sui dati.
It isn’t a generation thing either — the same study found digital natives, like millennials, scored just 22%.
Con un divario di competenze in materia di data science così ampio, rendere disponibili i dati non è sufficiente: la forza lavoro deve essere riqualificata per sapere cosa fare con essi. O forse no.
Forse il passo successivo all'accesso ai dati è la democratizzazione dell'accesso al valore dei dati.
Con questo intendiamo ridurre, o eliminare completamente, il livello di alfabetizzazione dei dati necessario per interpretarli in modo efficace e utilizzarli per prendere decisioni migliori.
È qui che entra in gioco l'intelligenza artificiale.
L'intelligenza artificiale è l'ingrediente segreto
L'intelligenza artificiale può essere il traduttore di dati aziendali per eccellenza, quando è in grado di farlo:
⚡ Augmented Analytics
Utilizzando il Machine Learning (ML), l'Augmented Analytics fa tutto il lavoro dietro le quinte per rendere i dati pronti per la dashboard più velocemente.
Automatizza le attività che richiedono molto tempo, come la preparazione e la manipolazione dei dati, consentendo di ottenere informazioni preziose da grandi quantità di dati grezzi in una frazione del tempo normalmente necessario.
Secondo Gartner, l'Augmented Analytics consente alle aziende di dedicare "meno tempo all'esplorazione dei dati e più tempo ad agire sugli insight più rilevanti". In altre parole, ci sono meno processi che fanno da collo di bottiglia, quindi le aziende possono ottenere più rapidamente ciò di cui hanno bisogno e i data scientist possono concentrarsi su compiti più importanti.
Insieme alla capacità del machine learning di apprendere dai dati nel tempo, l'Augmented Analytics può far risparmiare tempo e creare connessioni tra i dati per fornire consigli e previsioni efficaci.
A proposito, abbiamo scritto un white paper sull'Augmented Analytics: consultalo qui.
💬 IA conversazionale
Ora che i dati sono preparati e pronti all'uso, si tratta di capire come gli utenti interagiscono con essi. Gli strumenti di BI tradizionali li presentano in grafici e diagrammi, ma le persone e i dati lavorerebbero meglio insieme se parlassero la stessa lingua.
Ecco perché l'IA conversazionale è l'ideale. Utilizza l'elaborazione del linguaggio naturale per comprendere e dare risposte in linguaggio naturale, in modo che le persone possano essenzialmente parlare con un collega in più che conosce a fondo i loro dati aziendali.
In questo modo, l'utente finale medio non dovrà affrontare grafici complessi, ma semplicemente chiedere.
Ciao, Consulente IA
Questi sono i due pilastri di un consulente IA. Una piattaforma conversazionale che estrae automaticamente gli insight dai dati e genera consigli in base ad essi. Che non solo informa gli utenti, ma li guida attraverso i loro dati per prendere decisioni migliori.
Un consulente IA democratizza i dati, ma va oltre l'accesso ai dati, mitigando i problemi di alfabetizzazione dei dati per fornire approfondimenti inestimabili a chiunque ne abbia bisogno.