Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK
Powered by

Big Data Management: cosa significa per le compagnie assicurative e quali sono i trend di sviluppo

A guidare il mercato degli Analytics in Italia sono Assicurazioni, Manifatturiero e Servizi, dicono gli ultimi dati dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano. Tra algoritmi e machine learning, le nuove piattaforme di gestione supportano il business, rendendo più efficienti le procedure

28 Dic 2017

Una buona gestione delle informazioni è la base per una buona gestione del business. Il governo dei dati, dunque, è la pietra miliare che sta alla base di tutti i processi decisionali, che si tratti di gestione delle risorse o di ideazione di nuovi prodotti o servizi, di relazioni o di responsabilità.

Che lo sviluppo digitale abbia portato questi dati a crescere a dismisura non è un problema. La questione con i Big Data, infatti, non è tanto la loro quantità, quanto la capacità delle aziende di riuscire ad analizzare nel modo corretto i dati disponibili. La formula si sviluppa in tre tempi: interrogazione, risposta e visione di dettaglio. Algoritmi sempre più sofisticati consentono di intercettare e interpretare ogni flusso digitale che sta percorrendo o ha percorso la Rete: è il progresso tecnologico delle Analitiche a rivoluzionare i modelli di business.

Le Assicurazioni iniziano a credere nel Big Data Management

Il problema è che la maggior parte delle aziende sta catturando solo una porzione ridotta delle potenzialità associate ai Big Data. Il motivo non sono solo gli investimenti necessari ma anche, e soprattutto, le competenze. Sul mercato ci sono ancora pochi Big Data manager capaci di valorizzare le informazioni e i dati presenti in azienda.

Guardando agli ultimi dati pubblicati dall’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano, in Italia il settore più interessato nel mercato degli Analytics tra le grandi imprese è quello bancario (28%), seguito da manifatturiero (24%), Telco e media (14%), PA e sanità (7%), Servizi (8%), GDO (7%). In coda troviamo Utility (6%) e Assicurazioni (6%).

“Se si prende in considerazione la crescita – ha commentato Carlo Vercellis, responsabile dell’Osservatorio – a guidare la graduatoria sono Assicurazioni, Manifatturiero e Servizi, con tassi superiori al 25%, seguiti da banche, GDO e Telco e media, con tassi tra il 15% ed il 25%, poi utility e Pa e sanità, con crescite più modeste. In generale, il mercato dei Big Data Analytics ha continuato la sua crescita nel 2017, segnando un aumento del 22% e raggiungendo un valore complessivo di 1,1 miliardi di euro. Per la maggior parte resta appannaggio delle grandi imprese, che si dividono l’87% della spesa complessiva, mentre le Pmi si fermano a una quota del 13%, anche se i loro investimenti aumentano del 18% rispetto allo scorso anno”.

Big Data & Analytics contro i sinistri fraudolenti

Secondo gli esperti del Politecnico, l’ambito assicurativo sicuramente è tra i settori che più sembrano aver compreso le potenzialità dei Big Data, implementando progettualità volte sia a una migliore profilazione del cliente, sia all’ottimizzazione interna dei rischi.

Implementare piattaforme basate su tecniche avanzate di analytics sta aiutando le compagnie a supporta diversi filoni di servizio. Un caso emblematico è il ramo danni applicato alla Responsabilità Civile Automobilistica (RCA) in cui il Big Data Management permette di migliorare l’efficacia e l’efficienza del sistema di rilevamento delle frodi sugli incidenti stradali.

Come è noto agli addetti al settore, i casi di sinistri fraudolenti non sono semplici da gestire e

rappresentano un costo rilevante. L’utilizzo delle analitiche aiuta a “scoprire” dei pattern e quindi definire business rule per l’identificazione di potenziali frodi laddove l’esperienza e l’occhio umano anche più esperto possono incappare facilmente nell’errore. L’uso di soluzioni analitiche evolute velocizza notevolmente la processazione delle pratiche, riducendo sensibilmente i casi di “falsi positivi”, ovvero di incidenti ritenuti per errore fraudolenti. Le tecnologie digitali associate alla gestione del Big Data sono un cambio di marcia notevole rispetto alla gestione del business. Le compagnie più innovative stanno introducendo sistemi di scoring dei sinistri che, a seguito dell’analisi automatica di tutte le informazioni a disposizione presenti, permettono di elaborare valutazioni in tempi brevissimi. I punteggi possono essere collegati a variabili deterministiche (dati storici e anagrafici), punteggi predittivi che identificano dei trigger della potenziale frode e punteggi derivanti dall’utilizzo delle reti neurali che, ad esempio, riescono a modellizzare le relazioni tra diversi soggetti. In estrema sintesi, più alti sono i punteggi risultanti, più è alta la probabilità di trovarsi di fronte a una frode. L’aspetto più innovativo? La possibilità di sfruttare tecniche di machine learning che inseriscono nei sistemi anche dei meccanismi di autoapprendimento. Questo significa che, con l’aumentare della mole di dati analizzati, gli score derivanti diventano sempre più precisi e quindi affidabili nel profilare il sinistro come potenzialmente fraudolento o meno. L’aggiornamento degli score, inoltre, avviene quotidianamente: così la piattaforma permette di smistare in pochi giorni i diversi accadimenti, costruendo delle anteprime inserite in code di lavoro profilate, in una logica simile al triage del Pronto Soccorso.

In arrivo gli scienziati dei dati

Certo è che nell’ambito del Big Data Management c’è ancora parecchia strada da fare.

I più grandi ostacoli che le aziende devono superare per estrarre valore dai dati e per realizzare efficienti analytics sono di stampo organizzativo: molti lottano per incorporare il valore aggiunto dei dati nei processi day-by-day. Un’altra sfida è quella di attirare nuove figure data scientist in grado di combinare competenze di analisi dei dati a competenze funzionali per creare processi automatici di valore.

Gli analisti degli Osservatori fotografano la situazione: fra le organizzazioni che hanno assunto data scientist, il 28% ha iniziato a riconfigurare i propri processi organizzativi secondo una modalità Data Science Enabled, ma le competenze specializzate inserite lavorano ancora prevalentemente nella funzione IT o in altre specifiche funzioni aziendali. Il restante 17% invece ha raggiunto un livello di governance avanzato che segue svariati modelli organizzativi, diversi in base alla presenza o meno di una struttura centrale di coordinamento. Il 55% delle imprese che non hanno inserito in organico figure specializzate, invece, presenta ancora un modello organizzativo tradizionale, in cui le singole unità di business sono orientate ad analizzare i dati di propria competenza, senza alcuna visione aziendale complessiva.

Articolo 1 di 5