Behavioural Analytics

The world around us is changing. One of the most important things is we’re getting more and more data. Things are beginning to run on data. We have a data-rich society and we’re familiar with some of this.

Through Machine Learning Algorithms we have the ability to see the pulse of the society and measure it using these new big data sources has been very exciting for a lot of people. We’re entering a world that’s really highly instrumented, by using this big data where we can cure problems and detect problems very early on using these big data sources.

Behavioural Analytics uses machine learning and big data sources to understand and predict behaviour, it is a powerful approach for understanding humans. The key insight is that people’s behavior is not a function of what goes on in their brain so much, as it is to what the people around them do. We learn mostly from other humans. That’s what we call culture. When we see people doing something, if it looks like a good idea, we copy it, it’s human nature. It’s not something that came from inside your head, it came from copying other people and the consequence, is that ideas flow from person, to person, to person. Social learning, copying other people, talking to other people, causes ideas to flow around in society or within a company.

And once we begin realizing this, we have a different approach to understanding what people want and what they’re likely to do. For instance, if we wanted to understand what sort of apps somebody would do we could go and say, well, they’re this old and earn this much money and things like that, but sometimes what we can do is look what their buddies do. And if we see their buddies all using some particular app on their smartphone it’s a sure bet that they will too. In fact, in comparing the sort of demographic approach, individual features versus the social physics social features, we find that often there’s a five times better accuracy in predicting what people will do by paying attention to the social context than you could get from paying attention to individual features. That, right there, is a real revolution in analysis. Behavioural Analytics focuses on using big data to understand and predict human behavior based on their social context as well as traditional demographic measures.

 

Nextbit continues the Microsoft partnership with Azure and Business Intelligence competencies

Microsoft has made significant improvements in its infrastructure for supporting Big Data Analytics and Machine Learning, for this reason Nextbit has continued to renew the partnership and certification on Data Intelligence and Azure Cloud Computing with Microsoft since 2013.

Nextbit is a Silver Business Intelligence Competency in the Microsoft Partner Network. In the years of collaboration, Microsoft has valued our commitment to creating and delivering innovative customer solutions and services based on Cloud Computing and Advanced Analytics.

 

Nextbit is member of Cloudera Connect Partner Program

Nextbit is strongly believes in the value of Big Data and Open Source, it is a member of Cloudera Connect Partner Program since 2013.

Cloudera (www.cloudera.com) offers a powerful and integrated Big Data platform comprising software, support, training, professional services, and indemnity. This platform, which has open source Apache Hadoop software at its core, allows customers to store, process, and analyze far more data, of more types and formats, allowing them to “ask bigger questions”.

The Cloudera Connect Partner Program is designed to champion partner advancement and solution development for the Cloudera Enterprise ecosystem. Cloudera and partners promote a broader, stronger presence by combining product and services expertise from partners with CDH, Cloudera 100% open source and enterprise-ready distribution of Apache Hadoop.

Pricing analysis

Le analisi di pricing hanno come obiettivo un’ indagine approfondita della relazione tra prezzo e domanda su diversi prodotti o su altre dimensioni di analisi come quella geografica o dei diversi punti vendita.

Il concetto principale in questo tipo di analisi è quello di elasticità del prezzo (price elasticity), che mostra il grado di risposta (o elasticità) della quantità venduta di un prodotto ai cambiamenti del prezzo. Si calcola come la variazione in percentuale della domanda a fronte di un cambiamento dell’1% nel prezzo (fonte Wikipedia).

Per studiare l’elasticità del prezzo si necessita ovviamente di dati del passato, che possono essere le rilevazione storiche o dati provenienti da esperimenti.

Sotto la definizione di price analytics ricadono un insieme di tecniche volte a sfruttare dati storici per determinare il miglior prezzo da stabilire per le vendite future .

Le analisi che si possono portare avanti sono:

  • Analizzare la variabilità dei prezzi della gamma sullo storico (pre-requisito per le analisi successive)
  • Analizzare l’elasticità del prezzo dei singoli prodotti nei singoli store (o aree)
  • Se si dispone di queste informazioni nel caso dell’e-commerce, l’analisi degli ordini cancellati o dei prodotti la cui pagina è stata visitata ma per il quale non si è concretizzato l’acquisto. Questo per valutare l’eventuale impatto del prezzo su questo fenomeno.

A fronte di queste analisi ci si possono quindi porre obiettivi e definire strategie da applicare come:

  • Conoscere la variabilità dei prezzi della gamma sullo storico
  • Identificare dove è possibile aumentare in modo strategico il venduto abbassando i prezzi sui prodotti a maggior elasticità
  • Definire una lista di prodotti con bassa elasticità da utilizzare per proteggere e aumentare i margini.
  • Estendere le analisi al concetto di basket analysis tenendo conto anche di prodotti complementari

Per approfondimenti sul calcolo dell’elasticità del prezzo con diverse metodologie e sull’applicazione pratica di queste analisi non esitate a contattarci.

Customer churn analysis

Introduzione

Il tema della fidelizzazione della clientela e del tasso di abbandono (churn) è in questo periodo oggetto di attenzione in diversi settori, in particolare nel contesto del “customer lifetime value”.

L’azienda che sviluppa questo tipo di analisi riceve come beneficio la possibilità di valutare in modo preciso l’ammontare delle perdite a causa dell’abbandono della clientela e lo sforzo richiesto per la retention.
L’approccio “mass marketing” non ha più possibilità di successo nella complessità e nella diversità del mondo business consumer dei nostri giorni. Analisi di tipo customer lifetime value e customer churn analysis sono un sostegno imprescindibile alle strategie e alle campagne di marketing, perché aiutano a focalizzarsi su specifici gruppi di clienti e a non sprecare l’attenzione di questi ultimi.

In particolare il settore del personal retail banking è caratterizzato da clienti che rimangono con una società per un tempo molto lungo. I clienti di solito affidano la loro attività finanziaria a una società e non cambiano il fornitore di servizi finanziari molto spesso. Nell’ottica della società questo produce un ambiente stabile per la gestione del Customer Relationship Management (CRM).

In questo ambiente le perdite causate da un alto tasso di abbandono possono essere enormi.

Metodologia

L’obiettivo della churn analysis è quello di determinare i clienti che sono a rischio di lasciare la società come fornitore di prodotti/servizi. Questa, se possibile, deve essere corredata dall’analisi della profitabilità e del Customer Lifetime Value (LTV) del cliente per il quale si pensa di attivare strategie per trattenerlo.

La churn analysis è fortemente dipendente dalla definizione che si da dell’abbandono da parte del cliente.

Solitamente si definisce churner chi chiude tutti i prodotti o contratti di servizio con la società.

In letteratura i metodi statistici più utilizzati per quest’analisi sono la regressione logistica, le reti neurali e gli alberi decisionali.

La variabile che si vuole predire è solitamente dicotomica (0: non abbandono – 1: abbandono) e la regressione logistica fornisce una probabilità da 0 a 1 che l’evento avvenga.

Nella fase di analisi preparatoria alla churn analysis ci si può imbattere nel Class Imbalance Problem, per ovviare al problema si può utilizzare tecniche di oversampling.

Alcuni KPI da includere nell’analisi

Presentiamo ora alcuni dei KPI principali da includere nell’analisi:

  • Anzianità cliente
  • Cointestazione
  • Accredito stipendio
  • Num. Prodotti attivi
  • Variazioni di Balance
  • Num.Transazioni in/out (in particolare su ATM e carte credito)
  • Num. Claims (in particolare per clienti con poca anzianità)
  • Response alle Campagne di Marketing

Riferimenti

“Customer churn analysis – a case study”, Teemu Mutanen

Nextbit participates in the SAS Forum Italy with the presentation “Effective Sales Forecasting – Amgen Dompé case study”

SAS Forum Italy is an important conference to learn about innovative ideas in the field of Business Intelligence and Business Analytics. This year the conference will be held on April 17 at MiCo – Milano Congressi.

Nextbit, silver partner of SAS Institute, is a sponsor of the conference and participates actively with the presentation “Effective Sales Forecasting – Amgen Dompé case study”.

The presentation will be held by the Administrator of Nextbit Federico Pagani.

For more information visit http://www.sasforumitalia.it/ and come and visit us at SAS Forum 2013, at Nextbit stand.

Nextbit partecipa al SAS Forum con la presentazione “Prevedere le vendite con efficacia: il caso di Amgen Dompé”

SAS Forum Italia è un convegno molto utile per conoscere idee innovative in ambito Business Intelligence e Business Analytics e per trovare risposte alle esigenze di ciascuna area aziendale. Professionisti e manager insieme per condividere idee, pratiche e realizzazioni in tutti i settori di mercato e presso aziende di qualsiasi dimensione. Quest’anno il convegno si tiene mercoledì 17 Aprile al MiCo – Milano Congressi Viale Eginardo (Gate 2).

Nextbit, silver partner di SAS Institute, è sponsor del convegno e partecipa attivamente con la presentazione  “Effective Sales Forecasting – prevedere le vendite con efficacia: il caso di Amgen Dompé”.

La presentazione sarà tenuta dall’Amministratore di Nextbit Federico Pagani.

Per maggiori informazioni visita il sito http://www.sasforumitalia.it/ e vieni a trovarci al forum allo stand Nextbit.

Survival Analysis applied in banking field

Survival Analysis is a branch of statistics that takes care of representing development of an event during a period of time.

Its main application is into demography, especially in the analysis of human mortality. Some survival models have been created to produce principally 2 functions: Survival Function S(t), which represents the odds that the event would happen after time t, and Hazard Curve h(t), that describes probability of the phenomenon at time t.

In banking field, one possible application is the description of credit risk. In concrete terms, the event “death” happens when a contract has n outstanding installments (in other terms, having current delinquency equal to n). This analysis is absorbing, because when the contract goes into this bad situation, it will definitively exit from portfolio population. Another way to go out from community is the censor: the contract finishes in advance or it has no outstanding installments during the period of analysis.

Hazard Curve’s notion could resemble another useful banking indicator, vintage absorbing, because the concept is the same: ratio between number of “dead contract” at time t and total number of contracts.

But their trends are completely different due to 2 reasons: vintage numerator is not decreasing (“dead contracts” continue to be considered, differing from Hazard Curve), while denominator is constant (starting portfolio, differing from Hazard Curve where population is decreasing).

Through PROC LIFETEST of SAS, it is possible to make interesting analysis with some aims:

- Compare developments of S(t) and h(t), with a fixed cohort of contracts, according on significant variables; if we consider more variables, SAS calculates every combinations among all the categories.

S(t) e h(t) of car loans of a bank with variable of new/used car

- Compare developments of S(t) and h(t), with a fixed cohort of contracts, depending of levels of current delinquency.

- Compare developments of S(t) and h(t), with a fixed level of current delinquency, depending on cohort (temporal analysis).

SAS program produces automatically graphics and statistics: this study could be useful to understand temporal trends or the way these variables influence credit risk in portfolio.

Furthermore Survival Analysis has a model development, through 2 ways:

- some models evaluating Survival Function S(t) and Hazard Curve h(t), also depending of other significant variables; at the beginning it’s necessary to suppose a specific distribution to estimate parameters (Gamma, LogNormal, LogLogistic);

- some models foreseeing development of Survival Function S(t), depending only by time t; in this process some secondary functions of S(t) are used, because they are mainly alike to a straight line;

In the first case, we’ll have a model as a function of n+1 variables (time t and n significant variables), while in the other, it will depend only by time (through a method similar to linear regression).

Summarizing, Survival Analysis applied in banking field could be useful for some reasons:

- identification of mainly significant variables of a phenomenon
- understanding the influence of these variables on currency delinquency
- development of Survival Function depending on time
- forecasting of Survival Function for next months
- forecasting of Survival Function depending of significant variables

Survival Analysis in ambito bancario

La Survival Analysis è un ramo della statistica che si occupa di modellizzare l’accadimento di un evento in relazione al tempo.

Il campo di applicazione principale è la demografia, specialmente nello studio della mortalità umana. Sono stati creati modelli parametrici che generano principalmente 2 funzioni: la funzione di sopravvivenza S(t), che rappresenta la probabilità che l’evento sia posteriore al tempo t, e la Hazard Curve h(t), che descrive l’intensità del fenomeno al tempo t.

Una possibile applicazione, in ambito bancario, può essere la descrizione del rischio di credito per i contratti in portafoglio. In pratica, l’evento “morte” accade se il contratto ha n rate in arretrato (quindi current delinquency maggiore di n). Tale analisi è di tipo absorbing, poichè se un contratto “muore”, esce definitivamente dalla popolazione. L’altra causa di uscita dalla popolazione è la censura: il contratto si estingue anticipatamente o non accade nessun evento nel periodo dell’analisi.

La nozione di Hazard Curve si potrebbe quindi avvicinare ad un indicatore molto utilizzato in ambito bancario, le Vintage absorbing, dato che il concetto è identico: rapporto tra numeri di contratti “morti” al tempo t e numero di contratti totali. Ma gli andamenti si sono rilevati completamente differenti per 2 motivi: per le Vintage il numeratore è non decrescente (i contratti in malus continuano a essere considerati successivamente, a differenza dell’Hazard Curve dove si contano per ogni istante t), mentre il denominatore è costante (nell’Hazard Curve elimino tutti i contratti “morti”).

Attraverso la PROC LIFETEST di SAS, è possibile effettuare interessanti analisi con varie finalità:

- Confrontare gli andamenti di S(t) e h(t), fissata una coorte di contratti, in funzione delle spaccature considerate significative; nel caso si considerino più variabili, vengono create tutte le possibili combinazioni tra le categorie delle spaccature.

- Confrontare gli andamenti di S(t) e h(t), fissata una coorte di contratti, in funzione dei livelli di CD

- Confrontare gli andamenti di S(t) e h(t), fissato un livello di CD, in funzione delle coorti (per analizzare l’andamento nel tempo)

Il programma in SAS produce in automatico tutti i grafici e le statistiche: queste analisi sono utili per capire i trend temporali o in che modo alcune variabili di spaccatura infliuenzano i rischi dei contratti.

La Survival Analysis permette anche uno sviluppo modellistico, attraverso 2 modalità:

- modelli che stimano le funzioni di sopravvivenza e le curve Hazard, in funzione delle variabili categoriche considerate significative; risulta necessario ipotizzare a priori una distribuzione (Gamma, LogNormale, LogLogistica,…) per la stima dei parametri

-  modelli che prevedono l’evoluzione della funzione di sopravvivenza S(t), in funzione del tempo; vengono generalmente utilizzate funzioni secondarie per modellizzare la S(t), poiché più riconducibili ad una retta

Nel primo caso si ha un modello dipendente da n+1 variabili: il tempo t e le n variabili considerate significative; nel secondo caso, il modello dipenderà solo dal tempo (attraverso una procedura simile alla regressione lineare).

In definitiva, la Survival Analysis applicata in campo bancario può essere utile per vari motivi:

- riconoscimento delle variabili di spaccatura maggiormente significative
- riconoscimento di come tali variabili influiscano sulle current delinquency
- andamenti temporali della funzione di sopravvivenza
- previsione della curva di sopravvivenza per 6 mesi
- stima della curva di sopravvivenza in funzione delle variabili significative