Facebook pubblica per la prima volta i dati di applicazione dei propri Standard della Comunità

Spesso ci viene chiesto come decidiamo quali contenuti sono permessi su Facebook – e quanti sono quelli che violano i nostri Standard. Sono anni, infatti, che abbiamo degli Standard della Comunità che spiegano cosa può trovare spazio su Facebook e cosa no e, tre settimane fa per la prima volta, abbiamo anche pubblicato le linee guida interne che utilizziamo per applicare quegli standard.

Oggi, all’interno del Report sull’applicazione degli Standard della Comunità, comunicheremo in aggiunta i numeri legati all’applicazione di questi Standard, in modo da permettere a tutti di giudicare il nostro operato.

Alex Schultz, il nostro Vice Presidente di Data Analytics, ha spiegato dettagliatamente come misuriamo ciò che succede su Facebook nel blog Hard Question e in questa guida per Comprendere il Report sull’applicazione degli Standard della Comunità. È comunque importante sottolineare che si tratta di un lavoro in continua evoluzione e che la nostra metodologia potrebbe cambiare.

[amazon_link asins=’1980302863,8890341939,8863108455,8820385287,8890341912′ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’606cae54-58da-11e8-8a86-45127048dc96′]

Questo report include informazioni e dati relativi all’applicazione dei nostri Standard tra ottobre 2017 e marzo 2018 e copre sei aree: violenza esplicita, nudo (adulti), atti sessuali, propaganda terroristica, incitamento all’odio, spam e account falsi. I numeri illustrano:

  • Quanti contenuti che violano i nostri Standard sono stati visti dalle persone;
  • Quanti contenuti abbiamo rimosso;
  • Quanti contenuti abbiamo rilevato in modo proattivo utilizzando la nostra tecnologia, prima che le persone che utilizzano Facebook li segnalassero.

La maggior parte delle azioni che intraprendiamo per rimuovere contenuti contrari ai nostri Standard, riguarda gli account falsi e la grande quantità di spam che generano. Ad esempio:

  • Abbiamo rimosso 837 milioni di contenuti di spam nel primo trimestre del 2018 – quasi il 100% dei quali sono stati trovati e contrassegnati prima che qualcuno li segnalasse;
  • La chiave per combattere lo spam è rimuovere gli account falsi che lo diffondono. Nel primo trimestre 2018 abbiamo disattivato circa 583 milioni di account falsi – la maggior parte dei quali bloccati entro pochi minuti dalla loro creazione. Questo si aggiunge ai milioni di tentativi di creazione di account falsi che ogni giorno sventiamo su Facebook. Complessivamente stimiamo che, durante questo periodo di tempo, fossero ancora falsi circa il 3-4% degli account attivi di Facebook.

In merito alle altre tipologie di contenuti che violano i nostri Standard:

  • Abbiamo rimosso 21 milioni di contenuti di nudo di adulti o pornografici nel primo trimestre del 2018, il 96% dei quali rilevati dalla nostra tecnologia prima di essere segnalati. Stimiamo, comunque, che su ogni 10.000 contenuti visualizzati su Facebook, 7-9 visualizzazioni abbiano riguardato contenuti che violavano i nostri Standard su nudo e pornografia.
  • Per argomenti delicati come la violenza esplicita e l’incitamento all’odio, la nostra tecnologia ancora non riesce a funzionare in maniera del tutto efficace ed è necessario l’intervento dei nostri team di revisione. Abbiamo rimosso o etichettato come potenzialmente pericolosi circa tre milioni e mezzo di contenuti violenti nei primi tre mesi del 2018, l’86% dei quali identificati dalla nostra tecnologia prima che venissero segnalati. Abbiamo, inoltre, rimosso due milioni e mezzo di contenuti che incitavano all’odio, il 38% dei quali sono stati rilevati direttamente dalla nostra tecnologia.

Come sottolineato da Mark durante F8, abbiamo ancora molto lavoro da fare per prevenire gli abusi. In parte è perché l’intelligenza artificiale, pur essendo una tecnologia promettente, è ancora molto lontana dall’essere efficace per molti contenuti che violano i nostri Standard, perché il contesto è ancora molto importante. Ad esempio, l’intelligenza artificiale non è ancora sufficiente per identificare se qualcuno sta incitando all’odio o se sta semplicemente descrivendo qualcosa che ha vissuto per denunciare pubblicamente il problema. Più in generale, come spiegato la settimana scorsa, la tecnologia necessita di un gran numero di dati di supporto per riuscire a riconoscere modelli significativi di comportamento, che noi spesso non abbiamo per lingue meno diffuse o per i casi che non vengono segnalati spesso. Inoltre, in molte aree – anche se si tratta di spam, pornografia o account falsi – ci scontriamo con avversari sofisticati che cambiano continuamente tattica per eludere i nostri controlli, il che significa che dobbiamo continuamente cambiare e adattare i nostri sforzi. Questo è il motivo per cui stiamo investendo in modo consistente in un numero maggiore di persone e in una tecnologia migliore per rendere Facebook più sicuro per tutti.

Ed è anche il motivo per cui pubblichiamo queste informazioni. Riteniamo che una maggior trasparenza permetta di accrescere il senso di responsabilità nel tempo e che la pubblicazione di queste informazioni ci possa spingere a migliorare più rapidamente. Si tratta degli stessi dati che utilizziamo per valutare internamente il lavoro fatto – e adesso ognuno potrà vederli per giudicare i nostri progressi. Non vediamo l’ora di ricevere i vostri feedback.

Non più big data, ecco le nuove sfide nella gestione dei dati

Irion: 5 previsioni per la data management nel 2018

La software house stila una lista di temi caldi: l’adeguamento al GDPR, la Data Preparation, la misurazione della qualità, la facilità di accesso ai dati e la formazione degli ‘Ingegneri dei dati’

 

Con il nuovo anno iniziato da pochi giorni, Irion, software house italiana specializzata nell’Enterprise Data Management, ha stilato una lista dei trend nella gestione dei dati, di cui sentiremo sicuramente parlare nei prossimi 12 mesi. Partendo da una premessa: la discussione sui Big Data non sarà più all’ordine del giorno, poiché ormai è data per assodata, con le aziende consapevoli dell’enorme mole di dati di cui dispongono. Il vero problema è capire cosa (e chi) serve per proteggerli e sfruttarli al meglio, traendo massimo valore e vantaggio competitivo e rispettando i requisiti normativi.

 

Il solito (ig)noto [amazon_textlink asin=’8890341912′ text=’GDPR.’ template=’ProductLink’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’0116c0f4-f9d8-11e7-9333-3dffe7c37bb0′] Il 2018 sarà l’anno dell’applicazione del GDPR, che entrerà in vigore – senza se e senza ma – il 25 maggio. Un tema caldo già nel 2017, vista la portata del regolamento, che impone, alle aziende residenti nell’UE o che gestiscono dati di persone residenti nell’UE, la revisione dell’assetto tecnico e organizzativo per adottare le adeguate misure di Data Protection. Sebbene se ne sia molto parlato, buona parte delle aziende sembra non aver compreso a pieno i requisiti necessari e, soprattutto, ha fatto poco o nulla per adempiervi. Nei primi mesi del 2018 dovranno necessariamente prenderne atto, e correre in fretta ai ripari.

 [amazon_link asins=’8848131549,1118965833,8891621854,8811682479′ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’127ddd31-f9d8-11e7-a5ed-333b1acd7f60′]

La Data Preparation. Chi ben comincia è a metà dell’opera. Proprio per questo, e per evitare il fenomeno noto come “Garbage In, Garbage Out”, la Data Preparation, ovvero, a monte delle analytics, l’atto di predisposizione o pre-processing di dati grezzi e/o provenienti da fonti differenti, e conseguente traduzione in un formato condiviso, riveste e rivestirà sempre di più un ruolo fondamentale in ogni strategia di gestione dei dati.

 

Come misurare la qualità. Un’altra questione su cui si tornerà a ragionare nei mesi a venire, relativamente alla Data Management, è quella relativa alla misurazione della qualità: essenziale infatti sviluppare un metodo puntuale, preciso e condiviso.

 

Rendere facile l’accesso ai dati. Uno dei temi sempre più caldi è quello di rendere accessibile in modo semplice la gran massa di dati disponibile, evitando di impantanarsi in “laghi” che si trasformano rapidamente in “paludi”… In questo senso la disponibilità di una piattaforma in grado di pubblicare in modo organizzato e fruibile per gli obiettivi del destinatario è un fattore di successo.

 

Ingegneri dei dati cercasi. Si parla molto di Data Science e di Data Scientist, ma è arrivato il momento di passare a un livello successivo, ovvero all’Ingegneria dei dati. Tra la formazione accademica e le esigenze del mondo del lavoro resta infatti un divario troppo ampio, ed è necessario agire per colmarlo. Attualmente ci sono molti percorsi di ingegneria, ma nessuno dedicato ai dati: eppure i Data Engineer sono figure professionali sempre più appetibili e strategiche per le aziende.

 

“In generale, gestire e interpretare con precisione i dati di cui si dispone è essenziale per le aziende, in quanto crea un vantaggio concreto sulla concorrenza. Inoltre, nel 2018, la data management sarà ancora più cruciale per qualsiasi business, in un contesto di continuo aggiornamento normativo come quello attuale, con l’entrata in vigore del GDPR e le direttive verticali sui settori” ha dichiarato Alberto Scavino, CEO di Irion. 

Marketing & Big Data – La strategia Omnicanale in Italia è fondamentale per 2 imprese su 3, ma solo 1 su 10 sa interpretare i dati sul cliente

 

 Osservatori Digital Innovation del Politecnico di Milano

www.osservatori.net

 Osservatorio Omnichannel Customer Experience

  

Sono 31,7 milioni[1] (pari al 60% della popolazione di età superiore a 14 anni) gli italiani che utilizzano Internet in una o più fasi del processo di acquisto, ma la personalizzazione del contenuto in funzione dell’utente che accede a un sito o a un’app non è ancora particolarmente diffusa: il 29% delle aziende analizzate la fa, il 43% ci sta lavorando, ma il 28% non l’ha ancora inserita nella tabella di marcia. Più della metà delle aziende intervistate non ha un unico Crm in cui raccoglie tutte le informazioni sull’anagrafica clienti provenienti dai diversi prodotti/brand/canali.

[amazon_link asins=’8811682479,8838789894,8868951886,8848131549,8891621854′ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’e1e638e4-cec5-11e7-ac55-6dffa07be796′]

L’approccio Omnicanale in Italia: per il 63% delle aziende è strategico, ma solo una su dieci è in grado di incrociare molteplici dati sul cliente e garantire un’esperienza integrata e coerente sui diversi punti di contatto .

L’importanza dell’omnicanalità da parte del top management si riflette sul coinvolgimento di più funzioni organizzative: il Marketing è attivo nell’88% dei casi, il Crm nel 68%, l’IT nel 59%, la Comunicazione nel 55% e le Vendite nel 39%. Ma solo nel 24% delle realtà considerate tutte le business unit interessate hanno un elevato grado di coinvolgimento.

Gli obiettivi della strategia omnicanale sono sia tangibili – incremento delle vendite (indicato dall’81% delle aziende del campione) e miglioramento della customer acquisition/aumento dei lead (64%) – che intangibili – come la personalizzazione delle comunicazioni (62%), il miglioramento dell’engagement (59%) e della loyalty (55%). Ancora poco diffusi gli obiettivi legati alla modifica e alla creazione di prodotti e servizi (rispettivamente 25% e 21%).

La quasi totalità delle aziende italiane raccoglie e immagazzina i dati di anagrafica/contatto (98% dei casi analizzati) e storico di acquisto (86%) e circa tre su quattro i dati provenienti da sistemi di analytics su canali proprietari (79%), indagini di mercato e customer satisfaction (76%) e risultati delle campagne pubblicitarie online (74%). Tuttavia quasi un quarto delle realtà non integra ancora alcuno di questi dati per crearsi una vista unica sul cliente e il 40% gestisce in quest’ottica al più due o tre tipologie di informazioni, tendenzialmente quelle più semplici (come anagrafica clienti e storico di acquisto).

Nel 63% dei casi l’omnicanalità è considerata strategica dai vertici aziendali, mentre per il 23%, pur essendo ritenuta rilevante, non rientra nelle direttrici di sviluppo di breve/medio termine e per il 9% non figura per nulla tra le direzioni strategiche aziendali. La base di partenza è la creazione di un Crm unico che integri tutti i dati sull’anagrafica clienti provenienti dai diversi prodotti/brand/canali, ma solo il 47% delle aziende intervistate dichiara di disporne.

Queste alcune delle evidenze emerse dalla prima edizione dell’Osservatorio Omnichannel Customer Experience, promosso dalla School of Management del Politecnico di Milano*, che ha condotto una ricercaattraverso oltre 100 interviste lato domanda e offerta, una survey condotta su un campione di grandi e medio-grandi aziende italiane appartenenti ai principali settori e tre momenti plenari di confronto e discussione che hanno coinvolto complessivamente oltre 150 aziende della domanda.

“Siamo di fronte a profondi cambiamenti del comportamento dei consumatori nella loro relazione con la marca, che avviene sempre più secondo una molteplicità di canali, in qualsiasi momento e luogo” afferma Giuliano Noci, Responsabile Scientifico dell’Osservatorio Omnichannel Customer Experience. “Sono ormai 31,7 milioni[2], pari al 60% della popolazione di età superiore a 14 anni, gli italiani che utilizzano Internet in una o più fasi del processo di acquisto e si aspettano, pertanto, di vivere esperienze di marca integrate sui vari punti di contatto (punto vendita, sito internet, eCommerce, social network, contact center, pubblicità)”.

“È evidente come anche le imprese italiane abbiano ormai intrapreso un percorso che prevede la creazione di più canali e punti di contatto attraverso cui il cliente possa interagire con l’azienda”, afferma Raffaello Balocco, Responsabile Scientifico dell’Osservatorio Omnichannel Customer Experience “Tuttavia, sono ancora distanti da una gestione integrata della relazione con il consumatore che possa garantire una customer experience olistica, coerente su tutti i canali e senza interruzioni o ridondanze nel passaggio da uno all’altro (omnicanale appunto) e si trovano, pertanto, di fronte alla necessità di trasformare la logica dei propri modelli aziendali da prodotto centrico a cliente centrico”.

Per poter garantire un’esperienza omnicanale ai consumatori, occorre adottare una strategia basata sui dati lungo tutto il processo di relazione con il cliente, dalla comunicazione alla vendita e al post-vendita.

Raccolta e analisi dei dati

Il punto di partenza è la raccolta dei dati disponibili in azienda a supporto del processo di relazione con il consumatore: dati che provengono da diversi touchpoint (dal punto vendita al sito Internet/eCommerce, dal call center alla pubblicità, dai canali di direct marketing alle mobile app), dati immagazzinati in svariati sistemi informativi (come Crm o sistemi di cassa) e dati che possono provenire non solo dall’interno, ma anche dall’esterno dell’azienda (ad esempio, acquistati da data provider terzi).

La sola raccolta di dati non è però sufficiente senza un’accurata fase di analisi, in cui si vanno a selezionare i dati realmente utili e di valore e a generare insight rilevanti, per massimizzare l’efficacia delle azioni di marketing e vendita. Essa permette, inoltre, di generare cluster di segmenti di clienti e di individuare per ciascuno di essi uno o più customer journey, ossia il percorso che i clienti compiono, attraverso diversi punti di contatto, nel processo d’acquisto (e utilizzo) di un determinato bene o servizio. Infine, questa fase prevede l’analisi dei contenuti fruiti dal consumatore (content intelligence) per comprenderne gli interessi e arricchirne così il profilo così da essere più efficaci nelle successive fasi di contatto.

Dalla Ricerca emerge che la quasi totalità delle aziende raccoglie e immagazzina i dati di anagrafica cliente e informazioni di contatto (98% dei casi analizzati) e di storico di acquisto (86%), tipologie di dati tipicamente raccolte a livello di singolo individuo. Molto diffusa è, comunque, anche la raccolta di dati provenienti da sistemi di analytics su canali proprietari (79%), indagini di mercato e customer satisfaction (76%) e risultati delle campagne pubblicitarie online (74%): questi dati sono invece tendenzialmente gestiti a livello aggregato.

“La maggioranza delle realtà (40%), però, si limita al più ad incrociare due o tre tipologie di dati, tendenzialmente quelle di anagrafica clienti e storico d’acquisto, mentre poco più di una su tre è in grado di integrare anche dati più complessi (come quelli provenienti da analytics, advertising, interazioni one to one). Inoltre quasi un quarto delle realtà non integra ancora alcun dato per crearsi una vista unica sul cliente”, dichiara Marta Valsecchi, Direttore dell’Osservatorio Omnichannel Customer Experience. “Colpisce, inoltre, il fatto che più della metà delle aziende intervistate non abbia ancora un unico Crm che raggruppi tutti i dati sull’anagrafica clienti provenienti dai diversi prodotti/brand/canali.”

Oltre un terzo delle aziende rispondenti non traccia né ricostruisce, ad oggi, il customer journey del cliente, il 44% lo fa ma solo sui touchpoint digitali, mentre il 20% è in grado di farlo su tutti i canali (fisici e digitali).

Attivazione dei dati

A valle della creazione di una vista unica sul cliente e della generazione degli insight vi è la fase in cui i dati vengono “attivati” per generare iniziative di comunicazione, marketing o vendita profilate sulla base del consumatore a cui sono indirizzate (o del suo cluster di appartenenza). Lo scopo è interagire con lo specifico cliente attraverso azioni per lui rilevanti, nel momento più opportuno, nel giusto contesto e attraverso il corretto canale.

L’automazione di tale processo (Marketing Automation) consente alle aziende di mettere in campo azioni di marketing, comunicazione e vendita più tempestive e di misurarne rapidamente l’efficacia: se l’utilizzo di regole e automazioni è piuttosto frequente a livello di singolo canale di contatto, le aziende italiane sono ancora lontane da un approccio integrato su tutti – o almeno molti – dei touchpoint a disposizione. Solo il 16% delle aziende rispondenti alla survey dichiara, infatti, di gestire in maniera integrata tutti o quasi i propri punti di contatto e, inoltre, ben un quarto delle aziende interrogate non pratica alcuna gestione integrata. Anche la personalizzazione del contenuto in funzione dell’utente che accede a un sito/app non è ancora particolarmente diffusa: il 29% delle aziende del campione lo fa, il 43% ci sta lavorando, ma il 28% non l’ha ancora inserita nella tabella di marcia.

“In sintesi, dunque, in Italia, l’implementazione di strategie omnicanale è ancora agli inizi nella gran parte delle realtà, come testimoniato dai numerosi indicatori di maturità rilevati nel corso della Ricerca” afferma Nicola Spiller, Direttore dell’Osservatorio Omnichannel Customer Experience.“Possiamo affermare che solo il 10% del campione di imprese analizzato abbia già una discreta maturità nella gestione integrata dei punti di contatto e nella creazione di una vista unica sul cliente. All’opposto, quasi la metà delle aziende intervistate è ancora in una fase embrionale su entrambi i fronti”.

L’impatto sull’organizzazione aziendale e i possibili benefici

Andando ad analizzare la situazione italiana emerge che, in termini di commitment del vertice aziendale, nel 63% dei casi l’omnicanalità è considerata importante: è infatti prioritaria nell’8% delle imprese del campione, mentre nel 55% è una delle direzioni di sviluppo strategico. Per il 23% essa, pur essendo ritenuta rilevante, non rientra nelle direttrici di sviluppo di breve/medio termine. Infine per il 5% essa è prioritaria solo per una specifica business unit e per il 9% non rientra per nulla tra le direzioni strategiche aziendali. La generale consapevolezza dell’importanza dell’omnicanalità da parte del top management si riflette sul coinvolgimento di più funzioni organizzative: il Marketing è attivo nell’88% dei casi, il Crm nel 68%, l’IT nel 59%, la Comunicazione nel 55% e le Vendite nel 39%. A queste si aggiungono le funzioni Digital e Customer Experience, presenti in azienda rispettivamente nel 65% e nel 39% dei casi analizzati. A fronte di ciò emerge, tuttavia, come vi siano gradi di commitment molto diversificati a livello delle diverse funzioni aziendali coinvolte. Solo nel 24% delle realtà considerate tutte le business unit interessate hanno un elevato grado di commitment; nel 54% dei casi ciò non avviene per una diversa percezione dei benefici e nel 17% dei casi per un disallineamento negli obiettivi specifici di ciascuna funzione.

Dal punto di vista dell’impatto delle singole azioni, solo nel 25% delle aziende intervistate è presente un sistema di misurazione completo di tutti i principali obiettivi correlati alla customer experience, mentre per il 64% la misurazione è parziale o relativa solo ad alcuni obiettivi e il rimanente 11% dichiara di non disporre di un sistema di misurazione adeguato.

“Dalla fotografia delle aziende italiane emerge come una buona parte di esse abbia messo in campo azioni volte a rafforzare la propria capacità di generare insight: il 50% di esse, infatti, ha strutturato competenze di analisi dei dati e generazione di insight all’interno delle diverse funzioni aziendali”, aggiunge Nicola Spiller, Direttore dell’Osservatorio Omnichannel Customer Experience. “Un ulteriore 26%, inoltre, ha creato un team trasversale che si occupa di questa attività. Per quanto riguarda invece la gestione di progetti di revisione delle attività di marketing in ottica data driven, è evidente che ci siano ancora ampi margini di miglioramento: solo il 37% delle aziende intervistate, infatti, afferma di aver attualmente strutturato un gruppo deputato a gestire tali tipologie di progetti”.

“Attraverso strategie di omnicanalità può essere perseguita un’ampia varietà di obiettivi”, conclude Marta Valsecchi, Direttore dell’Osservatorio Omnichannel Customer Experience.“Tra quelli di maggior priorità per le aziende analizzate nella Ricerca vi sono sia obiettivi tangibili – quali incremento delle vendite (81% dei casi) e miglioramento della customer acquisition/aumento dei lead (64% dei casi) – sia obiettivi intangibili – quali personalizzazione delle comunicazioni (62% dei casi), miglioramento dell’engagement (59% dei casi) e miglioramento della loyalty (55% dei casi). Sono invece ancora poco diffusi obiettivi legati al miglioramento e alla creazione di prodotti e servizi (rispettivamente 25% e 21%)”.

*L’edizione 2017 dell’Osservatorio Omnichannel Customer Experience è realizzata con il supporto di Accenture Interactive, Adobe Systems Italia, Alpenite, Kettydo+, Poste Italiane, SPLIO, Stay Human Group, THRON; Adabra, Fastweb, GS1 Italy, MailUp, rdcom.it, Ubiquity.

[1] Osservatorio Multicanalità, 2017.

[2] Osservatorio Multicanalità, 2017.

Come diventare Data Scientist: pratica, intuito e specializzazione

I suggerimenti di Irion per chi vuole svolgere questa professione

 

Negli ultimi mesi si è sentito spesso parlare di Data Scientist; ma chi è, cosa fa e quali competenze deve avere questa figura professionale? E, soprattutto, come si diventa Data Scientist? Alcuni consigli per districarsi in questo stimolante ma insidioso contesto, arrivano da Irion, software house italiana specializzata nell’Enterprise Data Management, partner dell’Università degli Studi di Torino e da sempre attenta a formazione, ricerca e sviluppo.

 

Innanzitutto, per essere in grado leggere, analizzare e gestire i “big data” è necessario avere un solido background in matematica applicata, statistica, informatica o fisica, oltre a specifiche competenze di machine learning e data mining. In un contesto in rapidissima evoluzione come quello delle tecnologie digitali, in base alle quali vengono riprogettati un numero sempre maggiore di processi aziendali, le skill tradizionali non sono però più sufficienti, e l’aggiornamento continuo è fondamentale. I “maghi del dato” sono molto ricercati (e ben remunerati!), proprio perché per intraprendere questa professione, e svolgerla con profitto, è necessario un complesso background di competenze e attitudini.

[amazon_link asins=’8891743399,193550469X,012802044X,B01JXOJ5N6,B011YT2G6Q’ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’07d15c72-c074-11e7-8c0b-b1b088b7731a’]

 

Ecco quindi i tre suggerimenti di Alberto Scavino, CEO di Irion:

       Integrare la pratica allo studio teorico: Sembra banale, ma è la realtà. Un robusto background accademico è fondamentale per un Data Scientist, ma è ancora più importante “sporcarsi le mani” e lavorare su dati reali. Molte delle skill necessarie al professionista si possono infatti apprendere solo sul campo. Quindi, è essenziale accumulare esperienze, che siano stage o collaborazioni – già durante gli studi. Solo in questo modo, è possibile comprendere a pieno, e anticipare, i principali trend del settore.

       Sviluppare l’intuito: Un buon Data Scientist non deve solo avere forti competenze tecniche, ma deve anche essere dotato di un ottimo intuito. Non si tratta di gettare dati grezzi in uno strumento in grado di elaborarli, e aspettarsi che ne venga fuori qualcosa di buono: prima di tutto bisogna accertarsi che ciò che si sta facendo abbia un senso. Ad esempio, bisogna essere in grado di capire quali caratteristiche sono importanti e quali implicazioni vi stanno dietro, oltre a comprendere quale modello utilizzare in base a come i dati sono distribuiti.

       Massima specializzazione: In tutti i settori, dal finance, al pharma, alle utilities, solo per fare alcuni esempi, si registra una sempre crescente domanda di professionisti in grado di interpretare con precisione la mole di informazioni che quotidianamente le aziende ricevono: questo per trarre vantaggio competitivo, ma anche per conformarsi alle normative vigenti, in termini di privacy, protezione e sicurezza dei dati: uno su tutti il GDPR. Nelle infinite possibilità di applicazione, per un giovane che si avvia al mestiere, è fondamentale specializzarsi: le imprese ricercano infatti competenze sempre più specifiche.

        

In qualsiasi campo, dalla medicina alla finanza, passando per il marketing, è dunque necessario convergere e interpretare dati e informazioni, trasformandoli in indicazioni utili per il progresso di un’organizzazione. Per questo motivo, tra i profili più ricercati dalle aziende di ogni settore, negli anni a venire continueranno ad esserci proprio loro, gli “scienziati del dato”: professionisti dell’innovazione in grado di leggere, analizzare e gestire enormi quantità di informazioni digitali, permettendone l’utilizzo in infiniti ambiti applicativi, ponendo la massima attenzione su qualità, privacy e sicurezza.

 

Di conseguenza, anche il mondo accademico si sta muovendo per formare risorse con le competenze necessarie al ruolo di Data Scientist: all’Università La Sapienza di Roma, è nato persino un corso di laurea magistrale in Data Science, il primo del genere in Italia, che nei giorni scorsi ha visto la proclamazione dei suoi primi quattro laureati; l’Università di Torino, in collaborazione con il Collegio Carlo Alberto, propone invece il MADAS, Master in Data Science for Complex Economic System che, grazie a interventi curati da professionisti e aziende del settore, tra cui la stessa Irion, permette di coniugare lo studio teorico ad esercitazioni pratiche.

 

Data Dollar: una moneta che si basa sul valore dei dati personali diventa un nuovo metodo di pagamento  

Kaspersky Lab, ha creato un pop-up shop in cui i dati personali o meglio, i Data Dollar, sono l’unica moneta utilizzabile. L’obiettivo è dimostrare che i dati hanno un valore economico che può essere utilizzato per gli acquisti nei negozi del futuro.

 

Il Data Dollar Store è stato creato e allestito da Kaspersky Lab in Old Street a Londra, nel cuore della capitale della tecnologia. I clienti si sono messi in coda molto presto per aggiudicarsi le stampe esclusive del noto street artist Ben Eine, ma sono rimasti molto sorpresi di fronte al modo con cui avrebbero dovuto pagare le opere d’arte, veniva in effetti chiesto a loro di rinunciare alle proprie fotografie personali o ai video e utilizzarli come metodo di pagamento per gli acquisti. Dopo la sorpresa iniziale hanno però acconsentito favorendo l’aumento della valuta Data Dollar. Il Data Dollar Store, è stato ideato per far crescere negli utenti la consapevolezza del valore effettivo dei dati personali e attirare altri player di mercato ad unirsi a questa attività utilizzando il simbolo del Data Dollar. Per l’occasione è stato realizzato un video.

Tenuto conto che la quantità di dati personali continua a crescere in modo esponenziale, possiamo dire che le persone, in modo del tutto inconsapevole, portano con sè ogni giorno una vera e propria miniera d'oro fatta di 
monete preziose che non subiscono l’influenza dei tassi di cambio o della posizione geografica. 
Secondo Kaspersky Lab, la mancanza di consapevolezza rispetto al valore effettivo dei propri dati personali è 
un ostacolo enorme che impedisce alle persone di compredere quanto sia necessario proteggere i propri dati.
La speranza è che attraverso i Data Dollar questa consapevolezza possa aumentare e rendere quindi più sicura
 l'esperienza online di tutti.

“Per noi il Data Dollar è principalmente un mezzo per sensibilizzare gli utenti sul valore dei dati”, afferma Morten Lehn, General Manager Italy di Kaspersky Lab. “Quindi, se un sito web offre dei servizi gratuitamente, ma chiede in cambio i dati personali dei clienti per monetizzare il proprio servizio, dovrebbe utilizzare il simbolo del Data Dollar per dimostrare che si sta verificando una forma di scambio”, continua Lehn.

 [amazon_link asins=’8811682479,074947985X,8838662916,B06XWN7VCQ,B01J0RYDPQ’ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’06828932-ad7b-11e7-9229-d34717296eb0′]

Kaspersky Lab ha dimostrato che fare acquisti in un pop-up store temporaneo di Londra utilizzando i dati come
valuta può funzionare. Il negozio che è stato aperto per due giorni ha attirato diversi clienti che volevano 
aggiudicarsi ad ogni costo le stampe esclusive e le opere d'arte di Ben Eine, il noto street artist. 
I clienti erano convinti che avrebbero fatto una normalissima esperienza di shopping e che quindi dopo aver 
osservato i prodotti e scelto quelli da acquistare sarebbero andati alla cassa  per pagarli con del denaro. 
Quello che è accaduto invece è che al momento del pagamento ai clienti è stato chiesto di pagare in Data 
Dollars, la nuova valuta creata da Kaspersky Lab e che consiste nei dati personali dei clienti contenuti 
all’interno del loro smartphone: immagini, video o testi.

Morten Lehn ha aggiunto: “È facile dimenticarsi della quantità enorme di dati che condividiamo quotidianamente. La sensazione di perdita che si prova quando i dati personali vengono sottratti contro la nostra volontà, diventa molto più realistica quando qualcuno prende il nostro smartphone e davanti ai nostri occhi, scorre tutti i nostri dati decidendo quali prendere. L’effetto di questa esperienza di acquisto, che abbiamo potuto esplorare grazie al Data Dollar Store, è stata per noi molto interessante.  Secondo un sondaggio globale, anche se il 29% delle persone in tutto il mondo è stato vittima di un attacco informatico, il 39% non protegge i propri dispositivi dagli attacchi.

Le persone dovrebbero dare ai propri dati lo stesso valore che danno al denaro. Visto che i dati personali hanno valore e possono essere utilizzati come mezzo di scambio o per fare acquisti è importante proteggerli facendo di tutto per evitare che vengano rubati o persi”.


 

 

Analista dei dati: chi è, cosa fa e quanto guadagna

Business Data Analyst:
chi è, cosa fa e quanto guadagna
una delle figure più richieste del 2020

Ogni giorno, rispetto al passato, generiamo una quantità enorme di dati, il 90% in più solo negli ultimi due anni. I dati rappresentano una vera miniera per chi offre prodotti e servizi.
Ma questi dati hanno valore solo se siamo in grado di analizzarli, aggregarli e visualizzarli. Così l’esigenza di trattare le informazioni diventa sempre più una necessità condivisa, che prevede l’intervento di un professionista specifico: il Business Data Analyst, la seconda figura più ricercata dalle aziende. Secondo una recente ricerca realizzata da TAG Innovation School, in collaborazione con Cisco Italia e Intesa Sanpaolo su un campione di 550 piccole e medie imprese italiane, infatti il 50% delle PMI dichiara di volere assumere un esperto di analisi dei dati entro i prossimi 3 anni. Tra le tendenze del 2017, le aziende hanno deciso di investire maggiormente in Visualization, Cloud Data, Rich Content, Internet of Things, Sensor Data Driven e Intelligenza Artificiale.

Il Business Data Analyst è un professionista, non uno scienziato o un ricercatore, portatore di una serie di competenze che permettono alle aziende di sfruttare i dati per creare nuovi modelli di business e generare vantaggio competitivo sul mercato. Le sue analisi coprono trasversalmente tutti i reparti di un’azienda, trasformando i dati in informazioni comprensibili. Tra le skill maggiormente apprezzate dalle aziende troviamo Machine Learning, Data Visualization, Data Mining e Data Auditing e Testing.

[amazon_link asins=’8811682479,8848131549,8868951886,1118965833,B071HHZ1H3′ template=’ProductCarousel’ store=’antoniosavare-21′ marketplace=’IT’ link_id=’2381bab8-50d5-11e7-bd6d-7940ec931f1b’]

Il Business Data Analyst è un mix sapiente di competenze gestionali, statistiche e comunicative. Comprende l’origine dei dati e le eventuali possibili distorsioni, analizza il flusso informatico delle informazioni grazie a una conoscenza tecnologica, legge i dati con metodi statistici al fine di identificare problemi di business e, infine, comunica con chiarezza alle varie aree aziendali i risultati.

Lo stipendio medio annuo è tra i più alti in assoluto con cifre che si aggirano tra i 30 mila e i 50 mila euro per una figura junior ma può arrivare fino 99 mila per una figura senior. Parlando di quote rosa, le donne Data Analyst sono il 41% contro un 59% di uomini.

Le aziende stanno comprendendo il valore degli esperti di analisi dei dati, grazie ai quali è possibile individuare degli actionable insight, cioè delle indicazioni su come sviluppare e orientare le proprie attività di business andando ad accrescere il proprio vantaggio competitivo. Per questo il Master in Business Data Analysis offerto da TAG Innovation School, la scuola dell’innovazione digitale di Talent Garden, ha l’obiettivo di formare professionisti in grado di sfruttare la consistente mole di dati scaturita dall’impiego delle nuove tecnologie, ricavandone preziose indicazioni per l’assunzione di decisioni strategiche, operative e per la conduzione e la competitività delle aziende. 

[gview file=”http://www.antoniosavarese.it/wp-content/uploads/2017/06/Infografica_Data-Analyst-TAG-Innovation-School.pdf”]

Indagine Talend: l’80 per cento dei CIO sta pianificando un progetto Big Data per il 2017

Analisi in tempo reale, self-service e gestione dei metadati hanno la precedenza su Intelligenza Artificiale e Machine Learning


Talend (NASDAQ: TLND), leader mondiale nelle soluzioni software di integrazione cloud e big data, ha condotto un sondaggio che, coinvolgendo 169 responsabili IT, indica come big data, analytics e governance siano nella lista delle priorità per il 2017. I risultati dell’indagine mostrano che analisi in tempo reale, gestione dei metadati e l’accesso self-service ai dati costituiscono quasi il 70 per cento dei progetti che i responsabili IT leader intendono realizzare nel 2017, strutturando i propri dati per sfruttare intelligenza artificiale e machine learning in un futuro prossimo.

Dall’indagine emerge anche che mentre la spinta verso la trasformazione digitale continua ad essere un obiettivo da perseguire, quotidianamente i CIO sono chiamati ad affrontare le sfide in termini di budget e di tempo per garantire le operazioni di business. Di conseguenza, il loro obiettivo è guardare al progresso tecnologico continuando a focalizzarsi sul core business.

“La tecnologia da sola non rende l’azienda più orientata ai dati”, ha affermato Ashley Stirrup, chief marketing officer di Talend. “E’ fondamentale comprendere l’importanza del giusto mix di risorse umane, tecnologie e processi necessari per incrementare il valore strategico dei dati. Il compito dei responsabili della trasformazione digitale è quello di creare una cultura aziendale che intende i dati come una risorsa strategica che deve essere considerata in ogni fase del processo decisionale. Questo approccio garantisce l’agilità e la flessibilità di business necessarie per rimanere competitivi sul mercato odierno”.

 

I principali risultati dell’indagine Talend sui CIO:

 

  • Aumento dei progetti Big Data: le aziende hanno raggiunto un nuovo livello di conoscenza sui big data, con oltre l’80 per cento degli intervistati che indica di aver pianificato almeno un’iniziativa big data nel 2017, cifra quasi doppia rispetto al numero dei progetti big data portati a termine nel 2016. Per il 2017 i progetti si concentreranno su analytics e client.
  • Le analisi in tempo reale sono una priorità assoluta per il 26% degli intervistati per il 2017, segue la gestione dei metadati per il 20% mentre la preparazione self-service dei dati è stata indicata come priorità dal 18%. Molti CIO prendono già in considerazione intelligenza artificiale e machine learning e Internet of Things (IoT) ma con un livello più basso di importanza, pari rispettivamente al 10% e 5%.
  • I Big Data sempre più spesso vengono utilizzati per migliorare i processi interni e l’assistenza clienti: il lavoro dei responsabili IT spesso si divide tra l’introdurre nuove tecnologie per migliorare il business e il garantire l’operatività in modo sicuro ed economico. Questo spiega come per il 27% degli intervistati l’impatto più significativo dei Big Data sulla loro organizzazione sia proprio rappresentato dal miglioramento dei processi interni. Mentre per il 20% è il customer service ad aver beneficiato dei Big Data, seguito dal 17% sia per la riduzione dei costi operativi sia per la creazione di nuovi flussi di reddito.
  • Il rapporto tra IT e Business è il più grande ostacolo per diventare un’azienda orientata ai dati: il 35% degli intervistati ha indicato quale sfida principale nel percorso per diventare data-driven il rapporto tra IT e business. In particolare, per il 23% questo rapporto è stato l’ostacolo da dover affrontare prima ancora di quello del budget o quello di disporre di competenze adeguate che è considerato come una sfida solo dal 16% degli intervistati.
  • Governance, qualità e self-service dei dati: quando è stato chiesto quale dei seguenti aspetti rappresenti la massima priorità per l’azienda, i responsabili IT hanno messo in evidenza governance dei dati (37%), qualità dei dati (33%) e self-service (31%). Questi risultati mettono in luce come per le aziende sia di primaria importanza poter garantire che i dati siano puliti, gestiti e ampiamente accessibili in modo che i dipendenti possano metterli al servizio del successo aziendale.

 

 

A proposito di Talend

Talend (NASDAQ: TLND)  è uno dei leader della prossima generazione di soluzioni di big data e cloud integration che aiuta le aziende che vogliono essere guidate dai dati, rendendoli più accessibili, migliorandone la qualità e fornendoli rapidamente là dove sono necessari per un processo decisionale in tempo reale.  Semplificando i dati grazie a questi passaggi, Talend permette alle aziende di agire con perspicacia basandosi su informazioni precise, minuto per minuto, relative alla loro attività, ai clienti e al settore. Le soluzioni open source innovative di Talend raccolgono, preparano e combinano i dati provenienti da centinaia di fonti con rapidità ed efficienza, in modo tale che le aziende possano ottimizzarli in ogni ambito delle loro attività. Talend ha sede a Redwood City, California. 

Advanced Analytics – ossia come usare i big data per innovare il business

A cura di Giuseppe Donvito, Partner di P101

 

Cresce l’importanza ed il numero dei dati per le aziende, e con essa matura anche la necessità di analizzarli, classificarli, e soprattutto utilizzarli in maniera consapevole. A questo fine, sta guadagnando uno spazio sempre maggiore il campo degli advanced analytics: ovvero l’analisi autonoma o semi-autonoma dei dati attraverso tecnologie sofisticate, al fine di raggiungere una più profonda comprensione delle informazioni e fare previsioni utili allo sviluppo futuro del business. Di seguito la riflessione di Giuseppe Donvito, Partner del fondo di venture capital P101.

 

Gli advanced analytics, a differenza dell’analisi tradizionale, non si concentrano solo sui dati storici, ma permettono di raccogliere e studiare le informazioni in tempo reale, persino di predire comportamenti e trend futuri. L’analisi predittiva infatti è una sottocategoria degli advanced analytics, ed una fondamentale: riuscire a padroneggiare queste tecnologie significa avere un vantaggio competitivo enorme, in quanto integrare queste informazioni nelle strategie di business significa poter influenzare i trend prima ancora che si formino.

 

Gli advanced analytics, quindi, più che una tecnica sono un insieme di tecniche (predictive analysis, data/text mining, machine learning, sentiment analysis, neural networks – solo per citarne alcune) che permette per esempio di comprendere meglio comportamenti e preferenze dei consumatori attraverso l’analisi di grandi masse di dati.

 

Quello delle analisi “avanzate” è uno strumento relativamente nuovo, ma già oggi le grandi aziende stanno cercando di integrarlo nel proprio lavoro: secondo la ricerca MIT Sloan Management Review, il 2016 ha visto un aumento sensibile del numero di società che utilizzano questo tipo di analisi per ottenere un vantaggio sui competitor. Stando allo studio di Sloan Management, nel periodo 2013-2015 si è verificato un rallentamento nell’utilizzo dei big data e degli analytics (dal 67% al 51%), dovuto in parte ad un surplus di dati e alla difficoltà di metterli a frutto in maniera competitiva. Nel 2016, invece, le aziende prese in esame hanno iniziato ad implementare sistemi di advanced analytics che hanno permesso loro di superare questo scoglio (57%) e di utilizzare dati approfondimenti analitici ai fini strategici di innovazione dei modelli di business. Oggi queste realtà sono in grado di accedere a pool di dati sempre più grandi e hanno finalmente incominciato ad integrare gli strumenti di analisi nei processi decisionali.

 

E il loro impegno sta già portando a risultati soddisfacenti: il report Data & Advanced Analytics: High Stakes, High Rewards pubblicato il mese scorso da Forbes Insights evidenzia come delle società che hanno posto al centro della business strategy un utilizzo sapiente degli advanced analytics, quasi due terzi abbiano riportato un incremento dei margini o dei ricavi del 15% o più nel corso del 2016. Nel dettaglio, il 66% ha visto crescere i ricavi mentre il 63% ha conseguito un crescita dei margini operativi. Inoltre, il 60% di queste imprese ha dichiarato di aver migliorato il proprio profilo di rischio grazie agli advanced analytics. Insomma, non c’è da stupirsi se più di metà dei dirigenti intervistati ha in programma di investire nei prossimi due anni cifre che partono da un minimo di 10 milioni di dollari in big data e advanced analytics, e se gli esperti del settore si aspettano che il mercato degli advanced analytics cresca del 33% entro il 2021, fino a raggiungere un valore di 60,44 miliardi di dollari.

 

P101 – Insightful Venture Capital

P101 è un fondo di venture capital specializzato in investimenti in società digital e technology driven. Nato nel 2013, con una dotazione corrente di quasi 70 milioni di euro e 26 società in portafoglio, P101 si distingue per la capacità di mettere a disposizione degli imprenditori di nuova generazione, oltre a risorse economiche, anche competenze e servizi necessari a dare impulso alla crescita delle aziende. Il fondo, promosso da Andrea Di Camillo – 15 anni di esperienza nel venture capital e tra i fondatori di Banzai e Vitaminic – e partecipato da Azimut, Fondo Italiano di Investimento e European Investment Fund, collabora con i maggiori acceleratori privati, tra cui HFarm, Nana Bianca, Boox e Club Italia Investimenti. Tra le partecipate: ContactLab, Cortilia, Tannico, Musement e MusixMatch. Le società partecipate da P101 occupano oggi complessivamente oltre 500 risorse e generano un fatturato in costante crescita e già oggi superiore agli 80M annui. P101 prende il nome dal primo personal computer prodotto da Olivetti, negli anni ’60, esempio di innovazione italiana che ha lasciato il segno nella storia della tecnologia digitale.

 

 

2017_03_15_P101_NFTP_Insiders-Opinion_Advanced-Analytics.pdf

Europei 2016 – Qlik lancia un’app con tutti i dati!

L’app consente di consultare lo storico delle partite dalla prima edizione del 1960 a quelle di oggi – aggiornate in tempo reale – per consentire agli appassionati di calcio di tutto il mondo di scoprire i segreti della propria squadra del cuore, e fare pronostici sui vincitori

Qlik® (NASDAQ: QLIK), leader nella Visual Analytics, in occasione dell’inizio del Campionato Europeo di calcio 2016, presenta Campionato Europeo 2016, l’app realizzata con Qlik Sense® che analizza i dati di tutte le partite delle 56 edizioni degli Europei, per conoscere tutti i dettagli del proprio sport preferito con pochi click. L’applicazione, unica nel suo genere, che contiene dati sulle squadre e sui calciatori dall’inizio del torneo nel 1960, offre ai fan del pallone di tutto il mondo la possibilità di visualizzare, analizzare e confrontare i risultati della propria squadra del cuore, e valutare le chance di vincere i campionati di quest’anno. Ma non solo, l’app verrà aggiornata in tempo reale dopo gli esiti delle partite di questa edizione, per dare informazioni puntuali sulla classifica.

L’app è disponibile gratuitamente online e su mobile per tutti i tifosi del mondo, e consente di analizzare i dati e di scoprire tutti i successi delle varie squadre facilitando anche le previsioni per le partite successive.

Grazie all’app di Qlik si possono conoscere curiosità interessanti:

  • Dalla prima edizione degli Europei del 1960 sono stati segnati 579 gol in totale
  • Secondo lo storico dei dati, in ogni partita c’è il 26% di possibilità che venga assegnato un calcio di rigore
  • Il 73% dei calci di rigore finisce in porta
  • La maggior parte dei gol avviene durante il secondo tempo della partita – la fascia in cui si segnano più gol va dal cinquantesimo al cinquantacinquesimo minuto
  • La Bulgaria è il paese che finora ha collezionato più cartellini rossi e gialli nella storia degli Europei
  • La statura media dei calciatori si sta alzando, soprattutto quella dei portieri! Dal 1960 l’altezza media è aumentata di 6,44 cm – e di 10 cm per i portieri
  • La squadra italiana che ha fornito più calciatori alle nazionali è la Juventus, con 51 giocatori (di cui 34 all’Italia), seguita dal Milan, con 37 giocatori, e dall’Inter, con 34.
  • Il miglior marcatore della storia degli europei è Michel Platini con 9 gol all’attivo, per l’Italia è Mario Balotelli con 3 gol.
  • Gianluigi Buffon, con i suoi 1230 minuti, è il giocatore italiano che ha giocato più minuti agli europei e il 5° assoluto. Al primo posto Edwin Van der Sar con 1535 minuti.

Gli utenti che vogliono mettere alla prova le proprie competenze calcistiche possono divertirsi a rispondere alle domande di un quiz con tre livelli di difficoltà: http://bit.ly/qlikeuro2016.

“Oggi i dati vengono utilizzati sempre più spesso in ambito sportivo, per questo abbiamo deciso di creare un’app in grado di soddisfare tutte le curiosità degli appassionati di calcio. Anche se probabilmente tutti tifiamo per una squadra diversa, gli Europei rappresentano uno spettacolo, indipendentemente dalla fede calcistica, che appassiona molti di noi. Grazie all’app Campionato Europeo 2016, i tifosi potranno scoprire le statistiche più interessanti del campionato più importante d’Europa”, ha dichiarato Robert Fleming, VP International Marketing di Qlik.

Per una breve demo sul funzionamento dell’app, consultate il link: https://www.youtube.com/watch?v=ILJvuB0SSpA&feature=youtu.be#

L’app Campionato Europeo 2016 si basa su Qlik Sense ed è stata sviluppata in partnership con ACSSI, fornitore di Qlik. I dati sono stati forniti da Infostrada.

 

L’internet of Execution di Decisyon fa parlare le macchine con gli uomini

In occasione dell’Amazon Web Services Summit di Milano, Decisyon presenta il proprio “sistema nervoso” digitale, in grado di connettere dati, processi, macchine e persone, realizzato nel cloud attraverso gli strumenti di AWS.

Cosimo Palmisano, VP e Product Manager di Decisyon evidenzia alcuni vantaggi dei sistemi cloud di AWS che oggi permettono all’azienda di gestire oltre 200 clienti in 11 paesi diversi nello sviluppo dell’IoT in ambito industriale attraverso applicazioni verticali rilasciate sul cloud di AWS.

 

Gestire la filiera di grandi aziende farmaceutiche, ottimizzare i cicli di manutenzione di parchi eolici, controllare in tempo reale la reputazione di brand rilevanti attraverso il monitoraggio dei social network al variare delle commesse fornite. Queste tre diverse attività hanno un fattore comune: un’intelligenza collettiva per l’organizzazione della produzione, un’intelligenza in grado di supportare in ogni momento il processo decisionale di responsabili e addetti, suggerendo parallelamente alternative suffragate da dati.

Da 4 anni questo genere di intelligenza viene sviluppata da Decisyon, azienda italo-americana dell’Internet of Everything, con il supporto di Amazon Web Services e oggi, in occasione del primo AWS Summit Milano, Cosimo Palmisano, VP Product Decisyon, ha presentato il lavoro effettuato in questi anni per 200 clienti in 11 paesi nel mondo, raccontando quanto fatto e le strategie di sviluppo future.

La piattaforma di Decisyon è ospitata dalla nuvola di Amazon Web Services, che le permette infatti di muoversi in ogni momento tra i vari livelli e dimensioni: l’utente in ogni momento ha accesso a tutti i dati grazie al sistema di “mattoncini” che connettono tutte le parti dell’azienda in modo olistico.

Queste unità basilari funzionano come neuroni” afferma Cosimo Palmisano, VP Product Decisyon. “I sensori raccolgono dati e creano informazioni: da questo momento il meccanismo che li traduce in azione è simile a quello del cervello, che per mezzo di una sua semantica trasmette impulso ai nervi che a loro volta fanno muovere i muscoli”.

Il nuovo paradigma organizzativo pensato da Decisyon permette di gestire contestualmente tutte le attività quotidiane sottese al lavoro dei dipendenti: dal chiedere informazioni al raggruppare i dati, dall’aprire un gruppo di lavoro collaborativo in chat per approfondire un dato fino a suggerire le decisioni.

Tutto questo permette di eliminare le inefficienze dovute alle disconnessioni organizzative e di avere in qualsiasi momento tutti gli elementi a disposizione, connettendo cervelli e macchine.

Diverse motivazioni hanno spinto Decisyon fin dalla sua fondazione ad utilizzare i servizi di Amazon Web Services: anzitutto la flessibilità della tecnologia, la scalabilità controllata del prezzo e la possibilità di sviluppare proof of concept (prototipi) più velocemente ma, in modo ancor più decisivo, la complementarietà con l’impostazione del modello architetturale di Decisyon. La piattaforma di Decisyon non è nata a strati sovrapposti come ere geologiche ma si è invece sviluppata secondo il concetto di movimento di dati e processi tra diverse dimensioni: pianificazione, analisi, integrazione, esecuzione, collaborazione, gestione dei dati non strutturati, comunicazione collaborativa in modalità social attraverso chat, connettività.

Così facendo, si può eliminare alla base il rischio di sprecare tempo e risorse per recuperare le informazioni accumulate: muoversi sulle traiettorie delle diverse dimensioni permette di andare a riprendere ogni dato in ogni momento e tutto ciò coincide con la visione architetturale  basata sui  micro-servizi proposta da Amazon Web Services, servizi che danno l’opportunità di sviluppare tanti singoli segmenti attraverso un software completamente “agnostico” quindi adattabile ad ogni sistema operativo e ad ogni necessità.

Per noi, l’Internet of Everything”, continua Cosimo Palmisano, “si è declinato in Internet of Execution, ovvero unire i 7 livelli chiave della comunicazione tra uomo e macchine: i sensori fisici (le “things” dell’Internet of Things), la connettività tra processi, i concentratori di dati (hardware), l’accumulazione di dati, l’aggregazione e l’astrazione dei dati ottenuti, l’applicazione a livello di report e controllo e infine l’intervento “umano” in modo collaborativo. Decisyon si propone di mettere insieme proprio questi livelli attraverso un unico tool

La piattaforma unica infatti, svolge il compito di una vera e propria “network organization”: “La tecnologia ha iniziato anni fa a connettere i computer con internet, ha proseguito connettendo le persone con i social network e le macchine con l’IoT, in futuro potrà permettere di connettere entità esterne – dai consumatori ai fornitori ai partner – creando una Internet of Execution ovvero una rete orientata all’efficienza e alla riduzione dei costi.

L’Internet of Execution diventò realtà: i casi già realizzati

Negli ultimi 10 anni Decisyon ha sviluppato per grandi aziende multinazionali dozzine di applicazioni in ambito Industrial IoT molte pensate sin dall’inizio per il funzionamento in cloud ed ogni singola applicazione verticale è stata realizzata proprio grazie ai servizi di Amazon Web Services.

Non sono mancati negli anni gli esempi in grado di spiegare la versatilità ed il “potere” trasferito alle persone che devono prendere decisioni ogni giorno, in contesti che all’apparenza possono sembrare troppo grandi e complessi.

Per una grande multinazionale farmaceutica, Decisyon ha creato dashboard incrementali collaborativi completamente touch, in grado di raccogliere informazioni in tempo reale da diverse fonti (dai sensori ai risultati del controllo qualità): a ogni cambio turno in fabbrica si hanno a disposizione una serie di dati non più stampati su carta ma in real-time e collaborativi che possono direzionare al meglio il lavoro degli operai del turno successivo e dell’intero stabilimento.

In Wyoming è stato costruita con l’aiuto di un’azienda partner una app verticale per la gestione degli asset di un parco eolico: un classico caso dove le informazioni provengono da diverse fonti, strutturate o meno (le previsioni del tempo da incrociare con i dati di carico e scarico magazzino, per fare un esempio tra tanti) e che inoltre necessitano di essere messe a disposizione di ben 5 centri decisionali diversi per i processi di manutenzione. Nonostante l’enorme mole di lavoro (200 sensori per pala e un totale di 70 pale eoliche per campo) l’architettura AWS ancora una volta ha permesso di sviluppare una soluzione compatibile e capace di ridurre i costi operativi del 20%.

In partnership con Johnson & Johnson, infine, Decisyon ha saputo sviluppare una soluzione verticale per la scelta dei fornitori, chiamata Smart Center Management. In questo caso particolare vengono coinvolti 1000 utenti su 4 continenti, con l’obiettivo di incrociare in modo intelligente i dati provenienti da sistemi interni (come ufficio acquisti, qualità, ecc.) con le informazioni che provengono ogni giorno dai social, potendo così monitorare se a parità di fornitore possano nascere o meno diversi problemi di brand reputation dal punto di vista del consumatore.

Con clienti come TIM, Intesa San Paolo e Alpitour, Decisyon ha realizzato una soluzione per il customer care basato sui social network. Più di 500 operatori customer service attraverso la soluzione di Social CRM creata e distribuita su AWS gestiscono, visualizzano e analizzano in real-time, 24 ore su 24, più di 60mila operazioni al minuto.

Decisyon, attraverso Amazon Web Service, ha perseguito l’obiettivo di dare sempre più potere alle persone nello IoT industriale, grazie alla consultazione di scenari prodotti in tempo reale dai dati provenienti dalle macchine.

Ogni business può infatti far crescere le funzionalità dei propri software senza bisogno eccessivo di supporto IT, permettere una collaborazione in tempo reale su ogni dato con ogni persona presente in azienda, che sarà in grado di analizzare, collaborare ed eseguire azioni sui singoli processi andando ad agire direttamente “in context”.

“Avere creato un software come Decisyon su AWS ci ha permesso di dare potere alle persone, che oggi possono prendere decisioni migliori e gestire in tempo reale informazioni per il miglioramento continuo del loro modo di lavorare e conseguentemente incrementare la customer experience” conclude Cosimo Palmisano. “In futuro l’obiettivo è quello di aumentare le capacità operative della piattaforma IoE, utilizzando AWS non solo sfruttando i micro-servizi principali ma sfruttando la nuova piattaforma di Amazon Web Services per l’IoT che ci permetterà di concentrarci sulle soluzioni verticali e non per esempio sulla gestione di dispositivi o di protocolli per i sensori. Inoltre è nostra intenzione estendere le capacità analitiche andando ad utilizzare i nuovi algoritmi di machine learning presenti in AWS. Negli ultimi anni abbiamo imparato che la competizione si sta sempre più spostando sulla creazione di velocità, questo per noi è un paradigma che unisce 4 fattori: contestualità, collaborazione, interoperabilità, esecuzione. Il nostro CTO e Founder Franco Petrucci ci ripete sempre che ormai non è più il pesce grande che mangia quello piccolo, ma è quello veloce che mangia quello lento”.

* * *

Decisyon

Decisyon, Inc. offre ad aziende, produttori e brand di tutto il mondo l’unica piattaforma capace di costruire rapidamente applicazioni unificate intelligenti per l’Internet of Everything. Fondata in Italia nel 2005, la piattaforma Decisyon è ora utilizzata da più di 200 aziende a livello globale in svariati settori.

Exit mobile version

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fonire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o clicchi su "Accetta" permetti al loro utilizzo.

Chiudi