Big Data, uno tsunami con molti aspetti positivi

Il fenomeno Big Data sembra difficile non considerarlo un trend strutturale nell’attuale rivoluzione digitale. Il termine fa riferimento alla capacità di collezionare grandi e complessi volumi di dati ed è spesso associato a sofisticate analytics e strumenti computazionali per analizzare questa enorme mole di dati. Oggi gli strumenti computazionali ci permettono di interrogare dataset, svelandoci trend e pattern che l’occhio umano non era in grado di individuare, creando enormi opportunità di business sia per comprendere i bisogni dei clienti, ma anche per migliorare la qualità dei prodotti finanziari. 

Le caratterische che contraddistinguono i Big Data sono tipicamente  le cosiddete cinque V: volume, varietà, velocità, veridicità e valore. La tipologia dei dati determina la varietà, mentre il tasso con cui viene prodotto il dato fa riferimento alla velocità. Il volume è per ovvie ragioni legato alla dimensione dei dati. La veridicità ed il valore fanno riferimento all’affidabilità dei dati ed all’opportunità di business che questi dati possono contenere rispettivamente.

Per quanto riguarda, la varietà quando ci troviamo di fronte ai dati possiamo distinguere tre tipologie: structured, semistructured e unstructured. Il primo comprende tutti quei dati che possono essere importati tipicamente in un database relazionale (un contenitore bidimensionale con un’entità sulle rige e un insieme di caratteristiche sulle colonne, che genera delle relazioni tra i dati) per esempio dati di mercato o dati finanziari. 

Al secondo gruppo appartengono dati che hanno una struttura ma che necessitano di essere manipolati per essere inseriti in un database, per esempio le informazioni contenute in email, file pdf. All’ultimo gruppo appartengono dati che non hanno una struttura ben definita come per esempio il contenuto web, foto, o archivi video e audio. 

Casi di successo 

Cerchiamo di identificare la ricetta per gestire i Big Data nel risparmio gestito soprattutto per il supporto alle scelte di investimento, utilizzando alcuni esempi di casi di successo.Innanzitutto partiamo dalla persona che dovrebbe essere al controllo di un processo innovativo così importante. Oggi la figura professionale del data scientist o data engineer è diventata di primaria importanza per meglio raggiungere gli obiettivi di business, gli aspetti tecnici possono essere complessi e la conoscenza modellistica, hardware e computazionale è ancora una risorsa scarsa nel settore. Non è un caso che i più grandi hedge fund hanno funzioni dedicate alla gestione dei dati e spesso il chief data scientist è una persona estremamente competente sul fronte investimenti. 

Se pensiamo al volume di informazioni non strutturate, costruire un sistema in grado di monitorare il flusso di notizie su azioni, obbligazioni, commodity e valute può  sembrare difficile. Oggi ci sono provider come Ravenpack o Thompson Reuters che forniscono indicatori sintetici di sentiment del mercato basati sul flusso dell’informazione su Internet. Il cliente può ricevere in API gli indicatori, evitando di costruire un’infrastruttura hardware e software per gestire l’enorme volume di dati (oltre alla modellistica di text mining che non è affatto banale). Molte ricerche accademiche dimostrano che l’utilizzo del text mining è la nuova frontiera nelle scelte d’investimento, molti degli operatori high frequency utilizzano questi provider per anticipare il flusso degli operatori tradizionali. 

Algoritmi di execution

Per quanto riguarda i dati economici tradizionali (PIL, produzione industriale, etc.) non ci troviamo di fronte a un problema di Big Data, ma quando ci spostiamo sui prezzi di mercato la problematica cambia. Oggi per avere dei buoni algoritmi di execution è necessario analizzare tick-by-tick data, la tipica soluzione è un database non relazionale come KDB per avere accesso in maniera efficiente a terabyte di dati. Tutte le banche d’investimento usano questa soluzione per la gestione di questa tipologia di dati e inoltre offrono ai loro client real time and post trade analytics per meglio comprendere l’execution, tutti servizi basati su volumi di dati enormi. 

Per quanto riguarda le possibilità nel poter migliorare i processi di investimento tramite i big data Kensho, una piattaforma di analytics in grado di rispondere a milioni di domande finanziarie complesse, è un esempio importante. Acquisita da Goldman Sachs, ha come obiettivo semplificare il lavoro degli analisti portando in pochi secondi risposte a domande che richiedevano giorni di lavoro, una sorta di Siri della finanza. Sono evidenti le implicazioni sulla produttività degli analisti finanziari con questo tipo di strumenti.  

Anche la visualizzazione dei dati diventa fondamentale in questo oceano di dati. Oggi società come Tableau or Alteryx offrono tool di Business Intelligence/Data Aggregation che permettono di gestire una grande mole di dati in maniera estremamente intuititva (drag & drop, con minime conoscenze di programmazione), permettendo anche a persone non necessariamente quantitative di svolgere il lavoro del data scientist. Non sorprende infatti che anche in questo caso i grandi hedge fund adottano soluzioni similari a support del senior management per comprendere le relazioni e i trend tra i diversi book a cui allocano denaro. Gli esempi di casi di successo non mancano, quello che infatti abbiamo intrapreso in MoneyFarm è un cammino che  è perfettamente allineato con i trend di mercato nei Big Data in maniera da comprendere a pieno i bisogni dei clienti e offrire portafogli performanti ad un costo estremamente contenuto grazie ad un’accurata gestione dei dati.