Edge, Fog e Cloud? Meteo? In realtà non è esattamente così. Non si tratta di nuvole e nebbie ma di tre diversi “layer” di computing che proveremo a raccontare, partendo da una loro preliminare definizione.

Edge, Fog e Cloud Computing: cosa sono?

Il valore dei dati è funzione della loro disponibilità e fruibilità. Per questo motivo è necessario implementare un’architettura adatta:

  • Edge layer: è lo strato di macchina dove avvengono le elaborazioni in tempo reale su controllori o PC industriali.
  • Fog layer: è lo strato della rete locale dove è possibile implementare dei micro data center
  • Cloud layer: è lo strato dei big data, delle logiche di business degli analytics

Pensare ad una struttura a strati aiuta perché ognuno di essi è costruito sulle caratteristiche e capacità di elaborazione del precedente ed ognuno fornisce intelligenza relativa alla sua sorgente di dati: la macchina, la linea di produzione, la fabbrica.

WebinarGuarda il webinar

Edge o Cloud Computing

Su richiesta

Edge o Cloud Computing: come decentalizzare i dati per centralizzare la conoscenza

Edge computing in pratica

E’ il primo scalino verso il cloud.

Attraverso l’Edge computing si gestiscono i dati e la loro elaborazione in prossimità della singola macchina, normalmente su rete locale.

I dati arrivano normalmente dai controllori di macchina, da smart device con i quali si sovraintende la manutenzione.

Questi dati possono essere utilizzati localmente per il monitoraggio delle variabili in tempo reale e per la gestione di processo dove la latenza diventa un fattore critico. Il prezzo da pagare è però quello della ridotta capacità di memorizzazione ed analisi che deve esser demandato agli altri livelli dell’architettura IT.

Per esempio:

  • Monitorare o addirittura ammodernare linee di produzione estese può richiedere uno flusso di dati agile per tenere sotto osservazione le performance di diverse funzioni critiche o rendere trasparenti variabile di processo prima non monitorate Questo può essere fatto, in maniera poco invasiva, integrando sensori ed indicatori wireless i cui dati sono subito fruibili in campo.
  • Consideriamo uno scenario di intralogistica abilitato da AGV (Automated Guided Vehicle) dove l’analisi dei dati e il percorso del traffic deve avvenire in locale. Il layer Edge consente ai diversi attori di interagire tra loro supportando azioni in tempo reale.

Il livello Edge può essere, quindi, inteso come il mattone della Smart Factory dove risiedono i dati generati e utilizzati dalle macchine in tempo reale e che possono essere messi a disposizione per il livello superiore in cui si andranno a sofisticare le architetture di controllo e supervisione.

Fog Computing in pratica

Il Fog computing decentralizza in maniera efficace la potenza computazionale e di analisi.

Dove a livello Edge si raccolgono i dati e li si utilizza per funzioni time critical, a livello Fog possiamo pensare di elaborare in maniera completa i flussi di dati che arrivano da più fonti a livello di fabbrica.

Se i sensori, il sistema di controllo degli AGV costituiscono il livello Edge, l’interazione di questo con il punto di prelievo attraverso un sistema di tag RFiD vengono affidati al livello Fog.

Un esempio infatti potrebbe essere un sistema intralogistico dove un magazzino automatico risiede tra magazzini multipli. In questo caso al layer fog possiamo affidare la verifica del bilanciamento del materiale e attivare la fornitura dai diversi magazzini magari attraverso il trasporto AGV Bosch Rexroth.

Fog computing rappresenta uno step intermedio che governa quanti e quali dati debbano a livello operativo o passati oltre per abilitare altri scenari.

L’intelligenza a livello Fog consente quindi di ridurre il volume di dati da trasferire verso il livello superiore ai soli dati rilevanti, facilitando inoltre la comunicazione tra i nodi nello strato Edge.

E il Cloud?

Quando si parla di Cloud spesso ci si muove tra misticismo e confusione anche se poi lo si associa alla connettività internet.

Questo oggi giorno significa spazio dati a costi ragionevoli, architetture IT facilmente scalabili, grande capacità di elaborazione, latenze però non compatibili con la produzione il controllo in tempo reale.

E’ quindi lo spazio ideale per gli analitici e per l’elaborazione di grandi volumi di informazione. L’ambiente dove si abilitano gli scenari di decision making e di intelligenza artificiale. Dove il dato, da informazione diventa conoscenza.

Questo tipo di architettura aumenta il suo potenziale quando i dati vengo trasmessi con protocolli aperti, facilitando l’interoperabilità delle macchine il cui layout raggiunge livelli di flessibilità massimi se il mezzo di trasmissione e wireless e 5G.

Leggi anche: 5G: cos’è, sviluppi e implicazioni

Condividi :
  • Articoli simili

    articoli