Home »

Casi d’uso dei Big Data per migliorare i processi produttivi nelle aziende manifatturiere

Ad oggi stiamo assistendo ad un grande interesse sulla tematica dei Big data. Tale interesse è da imputare sicuramente alla loro grande versatilità. L’analisi dei Big Data infatti può potenzialmente trovare applicazioni in quasi ogni settore, dalla vendita al dettaglio, alla sanità, servizi finanziari, fino alla pubblica amministrazione. Qualsiasi organizzazione che produce una grande quantità di informazioni potrà quindi beneficiare dell’uso dei Big Data grazie a metodi analitici e tecnologie specifiche in grado di estrarre valore e informazioni utili al fine di ottimizzare le proprie funzioni aziendali.

L’analisi dei dati nei processi produttivi e soprattutto la possibilità di intervenire in real time su determinate operazioni è in grado di ridurre i difetti di lavorazione, migliorare la qualità della produzione, aumentare l’efficienza e ridurre costi e tempo. Ovviamente è bene chiarire che non basta semplicemente possedere una grande quantità di dati per essere certi di estrarre informazioni utili per il vostro business. A meno che non restringete la query ad un obiettivo di business specifico supportato da modelli o esempi, non sarà possibile ottenere molto valore dai dati generati.

Big_data_manufacturing

I dati sono quindi il primo punto di riferimento per un’analisi specifica, supportata da parametri scelti in base alla qualità e la quantità dei dati che possono creare un effettivo valore e determinare modelli per la big data analysis. Per tale motivo in questo articolo ci vogliamo focalizzare sull’industria manifatturiera, analizzando alcuni casi d’uso concreti:

  • Analisi predittiva per General Electric

General Electric sta conducendo continue analisi di dati generati sui suoi motori a reazione e piattaforme di perforazione tramite dei sensori. Questi sensori forniscono informazioni in tempo reale sulle attività, fornendo raccomandazioni per la manutenzione preventiva. Il risultato implica non solo un abbassamento dei costi di gestione, ma la possibilità di fornire servizi con un maggior valore ai propri clienti, riducendo il tasso di errore e il numero di richieste di assistenza dei clienti.

  • Miglioramento della qualità

Intel sta usando la big data analysis per il suo processo di produzione. Un produttore di chip deve infatti testare ogni chip che viene fuori dalla sua linea di produzione e ciò significa che normalmente ad ogni chip vengono eseguiti circa 19.000 test. Utilizzando i big data per l’analisi predittiva Intel è stata in grado di ridurre in modo significativo il numero di test richiesti per la garanzia di qualità. Partendo dal livello di wafer (una sottile porzione di materiale semiconduttore), Intel ha analizzato i dati dal processo di fabbricazione per ridurre il tempo di test e concentrarsi su test specifici. Il risultato è stato un risparmio di 3 milioni di dollari in costi di produzione per una singola linea di processori Intel Core. Espandendo questo metodo di analisi a tutta la sua produzione di chip , la società prevede di risparmiare una somma pari a circa di 30 milioni di dollari.

  • Gestione della Supply Chain

Un produttore può scegliere di utilizzare la big data analysis per ridurre il rischio di interruzione fornitura di materie prime. Utilizzando la big data analysis, l’azienda può sovrapporre potenziali ritardi su una mappa, analizzando i suoi dati con le statistiche relative a problemi di causa di forza maggiore ( fenomeni meteorologici come tornado, terremoti, uragani, ecc). L’ analisi predittiva può consentire alla società di calcolare le probabilità di ritardi e identificare i fornitori di backup per sviluppare piani di emergenza per assicurare che la produzione non venga interrotta da calamità naturali.

  • Personalizzazione di prodotto

Tata Consultancy Services ha citato il caso di una società di 2 miliardi di dollari che genera la maggior parte dei suoi ricavi dalla produzione di prodotti su ordinazione. Utilizzando la big data analysis questa azienda è stata in grado di analizzare il comportamento dei suoi clienti abituali. Il risultato è stato fondamentale per comprendere come fornire le merci in modo tempestivo e redditizio per migliorare la qualità del servizio. La società ha potuto così applicare un modello di lean manufacturing, determinando le linee di prodotto più profittevoli e dismettere quelle non più convenienti.

Questi sono solo alcuni esempi di possibili casi di utilizzo dei big data nel settore produttivo. La chiave risiede solo nella capacità definire il problema, sfruttare la grande mole di informazioni a disposizione, assemblare i dati giusti e determinare il modello per affrontare i propri problemi di produzione.

Home »

Come Machine learning, IoT e Big Data stanno cambiando il settore retail: alcuni esempi

Con l’aumento dei dispositivi digitali stiamo assistendo ad una conseguente crescita del volume di dati generato, rendendo sempre più complicato per gli analisti gestire in maniera strutturata questa mole di informazioni. Ad oggi, la retail Business Intelligence è talmente occupata a raccogliere dati, spesso in reazione ad un’opportunità o sfida percepita dal business, che non ha il tempo di analizzarli e percepirne le utili sfumature.

Come ha spiegato Robert Hetu, retail research director a Gartner, questa situazione ha portato ad uno scollegamento tra l’analisi dei dati e la possibilità di usare tali dati in real time in modo da ottenere rapidi e immediati benefici per il proprio business.

Per non perdere questa occasione bisogna considerare tecnologie in grado di sfruttare e analizzare automaticamente i dati e che riducano sempre più l’intervento umano.

Il settore retail è ben posizionato per beneficiare degli sviluppi del machine learning, dato l’enorme volume di dati strutturati e non strutturati che vengono creati ogni secondo. Bisogna capire con quali modelli questi dati possono essere sfruttati al massimo. Proviamo a darne qualche esempio:

I dati raccolti dallo smartphone del cliente tramite un iBeacon all’interno di in un centro outlet o di un negozio al dettaglio possono essere collegati alle vendite e ai dati di stock per essere poi analizzati da un software di machine learning. Così, analizzando rapidamente tali dati, il sistema può spingere un codice di sconto o inviare avvisi su misura al dispositivo mobile di un cliente in base ai gusti, località o abitudini di acquisto.

Questi modelli sarebbero inoltre in grado di analizzare automaticamente e in tempo reale la situazione di un punto vendita e dare indicazioni immediate ai commessi nello store, permettendo poi di raccogliere dati in tempo reale da tutta la catena di fornitura di un rivenditore: il che significa che si può intervenire per massimizzare le opportunità di vendita ovvero garantire che un prodotto non finisca mai out of stock.

Flat design vector illustration icons set with long shadow effect of electronic commerce and various shopping symbol and elements. Isolated on stylish turquoise background

Inoltre, automatizzando alcune procedure, si ridurrebbe al minimo la possibilità di errore umano per compiti meccanici e aumenterebbe il tempo assegnato alle attività che richiedono l’interazione umana. Il machine learning diventa così un validissimo supporto alla gestione.

Tali sistemi possono, in effetti, prendere decisioni strategiche ben prima di anche il più intelligente degli analisti di Business Intelligence, che a loro volta possono aiutare i rivenditori guadagnare un vantaggio rispetto ai rivali meno tecnologicamente avanzati.

Possiamo portare come esempio concreto Honest Café, un bar senza alcun dipendente di Londra, dove il cibo viene servito da distributori automatici, ma che permette comunque l’accesso a tavoli, divani e bancone per gustarsi un caffè o un brunch con gli amici. Il bar ha utilizzato il machine learning di IBM Watson per analizzare una grande mole di dati e capire i bisogni dei suoi clienti.

Il punto era che Honest cafè non disponeva di personale per raccogliere informazioni sugli acquisti o dei prodotti o sui comportamenti del consumatore, ma aveva dei distributori automatici che avrebbero potuto raccogliere una grande mole di dati.

È qui che entra in gioco Watson Analytics che ha permesso ad esempio di capire quanti clienti si fermavano a bere un drink con gli amici, e quali si precipitavano lì solo per prendere un caffè veloce. Hanno inoltre utilizzato dati transazionali per comprendere le modalità di pagamento, quali bevande venivano consumate e a quali ore del giorno, in modo che il cafè possa essere in grado di creare cluster di clienti e offrire promozioni e prodotti modellate sulle loro abitudini. Inoltre, incrociando tutte queste informazioni con i tweets relativi al set di dati della caffetteria hanno potuto ottenere informazioni migliori su ciò che i clienti avevano intenzione di comprare e hanno quindi agito su dati real time piuttosto che solo su dati di acquisto storici.

Questo è solo uno dei tanti esempi concreti che potremmo proporvi, ma cosa ne pensate dell’idea di costruire un software di machine learning che analizza i dati di vendita online e bilancia dinamicamente i prezzi dei prodotti in modo da poter ottenere il maggior guadagno da essi? Questa forma di analisi automatizzata bypasserebbe la necessità per gli analisti di vagliare i dati e regolare manualmente i prezzi, e consente on-the-fly aggiustamenti che gli esseri umani semplicemente non sono in grado di fornire con la stessa velocità.

Come potete notare la chiave per sfruttare le occasioni offerte da queste nuove tecnologie sta solo nel comprendere a fondo il vostro business, capire quali azioni è possibile automatizzare, in base a quali dati a disposizione e infine elaborare un modello di machine learning su misura per le esigenze specifiche del vostro punto vendita.

Home »

Perché i Big Data sono un’opportunità anche per le piccole e medie imprese

Per molte piccole e medie imprese che interessano la maggior parte del tessuto imprenditoriale italiano e lottano per rimanere sul mercato, le opportunità e i dibattiti sui Big Data potrebbero sembrare irrilevanti ai fini della loro crescita. Gestire ed utilizzare le informazioni a disposizione in modo corretto richiede dei costi che molti piccoli imprenditori dichiarano di non poter sostenere. Tuttavia, interpretare correttamente i Big Data può rappresentare proprio l’ occasione giusta per le PMI di ottenere un vantaggio competitivo, permettendo loro di stare sul mercato. Come?

Contrariamente a quanto si pensa, i Big Data non riguardano solo le grandi imprese con budget di spesa ancora più grandi, sebbene la maggior parte delle discussioni che troviamo sui Big Data è mirata a quelle aziende che hanno tutte le risorse necessarie per assumere data scientist qualificati. Infatti se si sa e si capisce dove “guardare”, si possono scoprire nuovi e diversi modi in cui una PMI può raccogliere, analizzare e dare un senso ai dati che già possiede.

Brennen-BigSmall

La cosa importante è rendersi conto che probabilmente si ha già a disposizione internamente un bagaglio di dati tale da permettere nuove e innovative analisi. Il punto fondamentale riguarda la capacità di saper attingere dai dati che già si possiedono ed elaborarli tramite nuovi metodi di organizzazione e di interpretazione dei dati, al fine di creare valore per l’impresa e per i propri clienti. Ma non solo, le piccole imprese, inoltre, possono sfruttare i vantaggi della presenza di enormi quantità di informazioni online e offline o sfruttare nuovi servizi a basso costo basati su cloud che permettono di rendere accessibili grandi quantità di dati. Per non parlare delle numerose startup che stanno nascendo proprio con l’obiettivo di sviluppare soluzioni basate su questo tipo di piattaforme e che potrebbero aiutare le piccole e medie imprese a comprendere meglio questi nuovi strumenti, creando così partnerships ed ecosistemi portatrici di nuove innovazioni.

Home »

Blossom: lo smart controller che ti permette di gestire in modo efficiente i consumi d’acqua

Per fronteggiare il problema della siccità in molte parti del mondo, tra cui California, Medio Oriente, e Australia è sorta la necessità di ideare nuove tecnologie da implementare il più presto possibile al fine di risolvere il problema della conservazione dell’acqua dolce.

Il controllore intelligente Blossom è un sistema di irrigazione avanzato, che sfruttando la potenzialità del cloud computing, riesce a creare  un programma di irrigazione ottimale, in quanto viene programmato con gli irrigatori esistenti sulla base delle previsioni locali e dei dati provenienti da numerose stazioni meteo e dai satelliti, in combinazione con il feedback degli utenti. Inoltre può essere controllato semplicemente da uno smartphone, tablet o computer utilizzando le applicazioni  per iOS e Android, le quali offrono agli utenti il controllo e il comando degli irrigatori del proprio  giardino, indipendentemente da dove si trovino.

blossom-sostitu

L’installazione richiede meno di 15 minuti, e lavora con cavi, valvole e irrigatori del sistema attuale, e può essere posizionato ovunque, fuori o dentro. Per funzionare anche su grandi distanze, il dispositivo utilizza la tecnologia “powerline” che trasforma le prese elettriche in connessioni internet, nel caso in cui il wi-fi non permetta la connessione.

blossom-designboom-07-818x546                                                   blossomimages22

Inoltre poiché ogni tipo di vegetazione richiede diverse esigenze e quantitativi di acqua in momenti diversi della giornata. per ottimizzare anche il problema della diversificazione, il controller intelligente Blossom impiega la tecnologia “xona”, che permette di elaborare programmi diversi per ogni zona, sulla base di tutti i dati e le informazioni del luogo a disposizione, al fine di sviluppare un programma di irrigazione su misura per il giardino.

Questo sistema quindi permette di aiutare cittadini e agricoltori a razionalizzare il consumo di acqua ed aumentare il risparmio nelle bollette, implementabile non solo a livello locale, ma in tutto il mondo. Un uso intelligente delle tecnologie dell’Internet of Things.

Home »

Le quattro “V” dei Big Data

Come nel marketing, quando si parla delle “quattro P” (Prodotto,Prezzo, Promozione e Punto vendita), quali leve indispensabili per raggiungere i propri obiettivi, così abbiamo giocato su questo concetto per provare ad individuare le quattro “V” dei Big Data, ovvero quella combinazione di variabili controllabili utili a gestire ed utilizzare in modo razionale un dataset così grande di informazioni. Stiamo parlando di:

  • Velocità
  • Volume
  • Varietà
  • Valore

Infatti giornalmente si creano quantità di dati per 2,5 quintilioni di byte e pensate che  il 90% di questi è stato creato soltanto negli ultimi due anni( Fonte: ICT insight). La possibilità di poter analizzare questo enorme volume di informazioni per  migliorare i propri processi decisionali è vista come una grande opportunità per le aziende in quanto fonte di vantaggio competitivo: si pensi alle analisi che potrebbero essere fatte per sondare gli “umori” del mercato e i trend della società o di un cluster specifico di consumatori.

Inoltre un elemento importantissimo è legato alla capacità di riuscire a raccogliere ed elaborare questi dati in tempo reale perché il valore delle informazioni decresce bruscamente già poco tempo dopo che tali dati sono stati raccolti. Per tale motivo la velocità è considerata un fattore critico di successo.

 Sarà impossibile creare un business senza riuscire a gestire in modo intelligente queste quattro variabili.

big-data-cloud

E non pensate che gli sforzi sui Big Data ruotino tutti intorno ai Social Media, forse lo è stato in passato, ma c’è molto altro che in un futuro vicino potremmo riuscire ad elaborare, arrivando a rivoluzionare i modi di gestire le informazioni nell’ambito della ricerca scientifica ad esempio, investigando su parametri ed elaborazioni con una precisione mai immaginata prima.