Questo è quanto è emerso da uno studio di GARTNER: dopo un lustro a sentir parlare solo di CLOUD, c’è stata dunque un’inversione di tendenza con l’introduzione di un nuovo trend tecnologico.

Ecco forse l’emergenza COVID ha rallentato questo processo, ma la direzione presa è comunque chiara e legata ad alcune “limitazioni” che sono emerse con l’implementazione dei progetti di gestione dati industriali nella nuvola.

Qualche esempio? È presto detto…

  1. Anche con l’arrivo del prestazionale 5G la connettività rappresenta comunque un collo di bottiglia (o “single point of failure” come piace dire agli americani): la supervisione, che si tratti di una macchina, una linea o un impianto, per alcuni processi è troppo importante per rischiare di perderla e l’unica soluzione per ora è ancora quella di farla risiedere sull’impianto.
  2. La mole di dati che viene generata da un processo produttivo difficilmente può essere storicizzata e gestita in CLOUD nel suo intero: non è un problema di prestazioni (non più) ma bensì di costi. Sia lo stoccaggio che la successiva analisi dei BIG DATA industriali richiederebbero spazio e potenza di calcolo sproporzionate rispetto alle possibilità di PMIU ma anche delle grazi multinazionali.
Qual è dunque la soluzione? SI CLOUD? NO CLOUD?

Ovviamente la risposta corretta sta nel mezzo: il CLOUD va senza dubbio utilizzato ma dobbiamo fornire alla nuvola non dati grezzi (RAW DATA, di cui sappiamo gli impianti industriali essere grandi produttori), ma informazioni già elaborate pronte per fare analisi di secondo livello, benchmarking, etc…

Proprio a questo si riferisce lo studio di GARTNER: è necessario un passaggio intermedio tra gli impianti produttivi e la rete enterprise. Non parliamo più di semplici scatolotti che fanno semplicemente da ponte, ma di dispositivi che possano dare certezze sugli argomenti riportati in seguito.

  • Alte Prestazioni (di storage e gestione di macchine virtuali per i sistemi ICS): prestazioni elevate riguardo capacità di calcolo e storage per poter “ospitare” all’interno sia il SISTEMA di SUPERVISIONE che il DATABASE di PROCESSO. In questo modo è possibile spedire nel CLOUD dati già “trattati” ed utili per un’analisi avanzata.
  • Alta Disponibilità (un livello di ridondanza che garantisca un UPTIME superiore al 99,99%): architetture in grado di garantire HIGH AVAILABILITY (e in alcuni casi la FAULT TOLERANCE) e mantenere disponibile la supervisione (e la sua visualizzazione tramite client)
  • Un collegamento sicuro verso il CLOUD: si tratta di dispositivi pensati per far uscire (ed entrare) solo dati e comandi autorizzati. Dunque stiamo parlando di un filtro attivo sia in entrata che in uscita, utile per proteggere sia gli impianti che le architetture in CLOUD.
  • Un punto di CONVERGENZA IT/OT affidabile e facilmente gestibile: l’IT ha già confidenza con il concetto di EDGE, ma spesso poca cultura riguardo ciò che ci sta sotto (PLC, SCADA e sistemi ICS in generale).

Con questi dispositivi è possibile creare un collegamento univoco e fornire “ai piani superiori” INFORMAZIONI al posto dei DATI PURI (RAW); inoltre sono facilmente sostituibili, basta avere sempre un backup degli applicativi utilizzati (e con alcuni prodotti tipo gli ztC di Stratus non è necessario nemmeno quello poichè si allineano in maniera del tutto automatica)

 

Vuoi approfondire l’argomento per scoprire come saranno le architetture di domani?

Scarica questo White Paper totalmente gratuito!
Clicca qui