Per predizione si intende l’annunciare in precedenza il verificarsi di un evento sulla base di ipotesi fondate su calcoli matematici. Nella parola “predizione” è concentrata tutta l’essenza ed il desiderio che si cela dietro al monitoraggio. Oggigiorno non ci si accontenta di conoscere ciò che sta accadendo ad un oggetto reale in real-time, ma c’è la necessità di predire il futuro basandosi su eventi passati.
Per monitoraggio si intende la continua osservazione di un oggetto o di una grandezza fisica o matematica descrittiva di un oggetto. Quest’ultimo costituisce il bene (tangibile o intangibile) che deve essere controllato costantemente nel tempo.
Il tempo è la grandezza fondamentale che governa il monitoraggio. È evidente come nella realtà la “propagazione del tempo” sia continua e non discreta. In altre parole, nel mondo reale vige il concetto di atomicità del tempo il quale può essere frammentato in infiniti istanti infinitesimi. Nel monitoraggio invece non abbiamo la facoltà di catturare (o acquisire) “continuamente” una grandezza fisica. Non esistendo, in termini matematici, una frequenza di acquisizione dati infinita, dobbiamo accontentarci di acquisizioni discrete nel tempo, a determinate frequenze.
La frequenza di acquisizione è responsabile della suddivisione del monitoraggio in due macro-aree:
Frequenze “elevate” e “ridotte” si quantificano a seconda dell’applicazione (ad esempio nel monitoraggio infrastrutturale la linea di confine tra dinamico e statico può essere fissata circa a 10-20 Hz). Tutte le grandezze oggetto di monitoraggio sono caratterizzate da un andamento nel tempo, le cui variazioni possono dipendere da altre variabili le quali possono essere soggette o meno a monitoraggio.
Sulla base di questa considerazione il monitoraggio costituisce un ottimo strumento per individuare correlazioni tra grandezze fisiche protagoniste di un sistema di monitoraggio. A prescindere dall’uso che se ne fa, chiunque opera nel monitoraggio deve destreggiarsi con una serie di Time Series caratteristiche di ogni grandezza fisica acquisita.
La predizione nel monitoraggio costituisce il meeting point tra l’Ingegneria Civile-Ambientale con il Data Science. Tutte le opere civili erette in età moderna-contemporanea sono state progettate seguendo le leggi della Scienza delle Costruzioni e della Statica, le quali dettano le regole sul dimensionamento di travi e di elementi strutturali portanti. Queste regole, inoltre, tengono conto di come l’opera interagisce con se stessa e con l’ambiente circostante.
Perciò l’Ingegneria Civile-Ambientale ci fornisce le grandezze ingegneristiche principali che descrivono le condizioni nominali di progetto, ossia dei valori numerici che ci si aspetta di ottenere ad opera ultimata. In altre parole il valore nominale delle grandezze ingegneristiche costituisce il valore di regime o di inizio vita dell’opera per poi variare nel tempo durante il normale esercizio dell’opera.
L’osservazione della variazione nel tempo di queste grandezze ingegneristiche è l’obbiettivo del monitoraggio strutturale. In realtà in fase di progettazione si fa già predizione probabilistica. Lo dimostra il fatto che molti parametri e coefficienti correttivi che entrano in gioco in questa fase sono determinati su base statistica facendo riferimenti a dati storici di altre strutture oppure facendo riferimento a test in laboratorio.
Ciò che la predizione nel monitoraggio può fornire in più è il comportamento futuro dell’opera, calcolato sui dati passati caratteristici della stessa opera. Infatti, per quanto possa essere simile il comportamento di due costruzioni progettate allo stesso modo, questo non potrà mai essere identico. La potenza della predizione nel monitoraggio risiede proprio nella conoscenza della storia dell’infrastruttura, di come “respira” nell’alternanza tra giorno e notte e di come reagisce agli stimoli esterni. Nota la storia, si possono determinare i trend che presentano le grandezze sotto esame, fissare delle soglie di avviso per la manutenzione predittiva al di sopra delle quali è necessario intervenire.
Per poter fissare le soglie è necessario avere una conoscenza approfondita ed affidabile della storia dell’infrastruttura. Le soglie possono essere statiche, adattive e dinamiche; vengono calcolate dai dati storici e selezionate sulla base della tipologia di monitoraggio che si sta facendo. In ogni caso la manutenzione predittiva prende forma dal confronto continuo tra più tipologie di soglie con la grandezza ingegneristica presa in considerazione.
Il meeting point tra l’Ingegneria Civile-Ambientale e Data Science scaturisce l’ingresso in gioco di tutta la parte di Machine Learning. Questa costituisce un arma in favore del monitoraggio e della predizione in quanto si possono definire stati del sistema basati su classification e clustering attraverso algoritmi di correlazione.
Un tipico esempio è l’applicazione algoritmi di classification della correlazione di due o più caratteristiche del sistema, dai quali si generano sotto-domini di esistenza. Il continuo monitoraggio della correlazione fornisce indicazioni aggiuntive sul comportamento passato ed attuale della struttura dal quale possiamo determinare trend futuri ed eventuali derive.
Il futuro necessita sempre di più di sistemi di monitoraggio. I campi di applicazione sono i più disparati e coinvolgono molte tecnologie e campi di ricerca, si va dalla sensoristica (elettrica, fibra ottica) all’ingegneria civile passando per il data science, informatica e statistica. Questo impone un approccio multidisciplinare che coinvolge diverse figure lavorative che devono saper comunicare efficacemente.
Ad oggi non c’è ancora la cultura del monitoraggio multidisciplinare, nel senso che è una materia ancora troppo sottovalutata per poter giustificare investimenti su queste risorse. In queste condizioni il compito del monitoraggio è demandato a strumentazione poco automatizzata che causa povertà di dati e di conseguenza una scarsa conoscenza della vita di un opera durante il suo normale esercizio. Le condizioni non favoriscono il fiorire della materia del monitoraggio.
Una scossa è avvenuta a causa di eventi catastrofici come i crolli di ponti e viadotti. La conseguenza è stata una spinta ad investire in nuove tecnologie, che permettono di monitorare h24 in real time infrastrutture. Inoltre la maggior parte delle opere infrastrutturali stradali e ferroviarie sono state costruite negli anni 50-60, per cui attualmente siamo alla fine della vita progettuale di tali opere (che iniziano a manifestare segnali di cedimento). Questi fatti stanno incentivando l’installazione di sistemi di monitoraggio che però a volte non sono supportati dalla giusta considerazione che meritano.
Per concludere, la multi-disciplinarietà della materia impone anche lo stare al passo con i tempi. Tecnologie innovative possono diventare obsolete nel giro di pochi anni (nel giro di pochi anni il Machine Learning è diventata materia nota a tutti ed in poco tempo potrebbe diventare addirittura obsoleta). Per questo motivo si iniziano a studiare applicazioni con Deep Learning o algoritmi non supervisionati.
La discussione prosegue qui.
Scrivimi la tua opinione sull’argomento, o per suggerire uno dei prossimi approfondimenti! Se te lo fossi perso, leggi anche il mio primo intervento nella rubrica Tech Coffee Break, dedicato alle tecnologie edge!
AUTORE: ANDREA CANFORA
Senior Data Scientist in Sensoworks. Le sue competenze ingegneristiche trasversali su più settori gli permettono di essere l’anello di congiunzione tra i team che disegnano le soluzioni Sensoworks e il team tecnico che si occupa di realizzarle.
L’edge computing è un’architettura IT distribuita e aperta con potenza di elaborazione decentralizzata, predisposta per le tecnologie di mobile computing e Internet of Things (IoT). Nell’edge computing, i dati sono elaborati dal dispositivo stesso o da un computer o server locale, invece di essere trasmessi al data center.
L'elaborazione dei dati in prossimità del luogo in cui vengono generati porta considerevoli vantaggi in termini di latenza di elaborazione, riduzione di traffico dati e maggior resilienza in caso di interruzione della connessione dati.
L’edge computing permette di accelerare i flussi di dati, che vengono elaborati in tempo reale senza latenza, e consente alle applicazioni e ai dispositivi intelligenti di rispondere quasi istantaneamente, durante la fase di creazione, eliminando i ritardi. Questo risulta abilitante insieme al 5G per le nuove tecnologie come le automobili a guida autonoma dove è necessaria una grande reattività agli eventi di elementi intelligenti dislocati ed offre vantaggi altrettanto rilevanti per le aziende.
Inoltre l’edge computing consente l’elaborazione efficiente dei dati in grandi volumi in prossimità dell’origine: questo consente di ridurre l’utilizzo della larghezza di banda Internet, eliminare i costi e garantire un uso efficace delle applicazioni in posizioni remote. Inoltre, la possibilità di elaborare i dati senza mai trasferirli nel cloud pubblico aggiunge un livello di sicurezza utile per quelli sensibili.
All’edge computing si contrappone il computo o elaborazione centralizzata tipica del edge gateway centralizzato o del cloud computing, dove il dato viene prima trasmesso al cloud dove verrà elaborato.
L’importanza dell’edge computing è insita nella sua definizione, ossia nel distribuire l’elaborazione dei dati di un sistema; in questo modo si opera ad una parallelizzazione sia dell’elaborazione che della trasmissione dei dati, ottenendo un guadagno in termini di sicurezza del dato, efficienza ed affidabilità del sistema.
Inoltre il sovraccarico del software centrale, che in assenza di edge computing avrebbe dovuto occuparsi dell’elaborazione dei dati, in questo modo viene meno e quindi diminuiscono notevolmente le possibilità di fuori servizio e quindi di perdita dei dati di tutto il sistema.
L’importanza dello sviluppo dell’edge computing è sottolineata non solo dall’affermarsi delle tecnologie IoT ma anche dalla progressiva penetrazione del 5G. Queste due tecnologie necessitano di “oggetti intelligenti” in grado di prendere decisioni il più autonomamente possibile; da ciò nasce l’esigenza di decentralizzare l’elaborazione dei dati.
Lavorando con una piattaforma quale quella Sensoworks (che ha la caratteristica di operare in contesti molto variegati grazie alla sua duttilità e flessibilità nella gestione ed ingestione di grandi moli di dati), abbiamo ben chiari i diversi casi in cui possiamo aumentare il grado di edge computing, come succede nei progetti afferenti alle smart cities, ed altri in cui siamo impossibilitati a utilizzarlo, come sui progetti relativi al monitoraggio strutturale.
I casi d’uso possono essere descritti sinteticamente come l’applicazione di diverse quantità di strumentazione sensoristica (più o meno numerosa) installata in:
Questi tre casi richiedono una progettazione differente nell’ottica di un buon compromesso costi-benefici. Per questo motivo non sempre è conveniente estremizzare il concetto di edge computing considerando le attuali tecnologie a disposizione sul mercato.
Ad esempio, se consideriamo il monitoraggio di una infrastruttura civile, i sensori operano da trasduttori nel senso che rilevano la variazione fisica, la traducono in segnale e lo trasmettono ad una centralina. Questo deve essere filtrato e tradotto in grandezza ingegneristica, dopodiché può essere elaborato dall’EDGE gateway ed inviato a Sensoworks che opera sul cloud. L’architettura descritta tende più al cloud computing piuttosto che all’edge computing. La scelta di questa architettura deriva dal costo della centralina molto maggiore rispetto a quello dei sensori, perciò collegando ad essa un numero sufficientemente elevato di sensori si ammortizza il sua costo.
Se invece consideriamo il caso di waste management, abbiamo la necessità di dislocare su un’area estesa molti device che monitorano ad esempio i cassoni della spazzatura. Qui il concetto di edge computing deve essere messo in pratica per lo più dal punto di vista software, perciò si demanda al singolo device installato sul cassonetto il compito di rilevazione, elaborazione e trasmissione dei dati a Sensoworks. All’aumentare dei compiti richiesti dal cassonetto intelligente aumenta anche la potenza di calcolo richiesta alla MCU la quale è limitata date le dimensioni compatte che richiede l’applicazione.
L’intelligenza artificiale è ormai considerata la tecnologia computazionale abilitante per l’innovazione tecnologica dei prossimi anni. L’IoT fa già ampio utilizzo di paradigmi computazionali Deep Learning per offrire servizi di ricerca di informazioni in rete o per il riconoscimento di informazioni audio-visuali, mentre la ormai imminente Internet of Everything (IoE) si sta preparando per gestire e fornire servizi che trattano i dati di miliardi di sensori connessi in rete.
I paradigmi computazionali tradizionali – Deep Learning/Machine Learning e – le Reti Neurali Artificiali (ANN) sono più semplici da progettare, ma computazionalmente sono più intensivi e richiedono un’enorme quantità di dati per essere configurati; ciò rappresenta il limite al loro impiego.
Tale limite al presente viene superato in termini di sovradimensionamento computazionale, basato sull’uso spropositato della potenza di calcolo fornita dalla rete (cloud computing), in evidente contraddizione della tendenza verso l’embedded computing che tende a spostare verso la periferia della rete il processo di elaborazione (Edge Computing) allo scopo di ridurre la complessità e i costi (infrastrutturali) delle applicazioni.
La tecnologia abilitante dell’Edge Computing è quella delle MicroControl Units (MCUs) che, negli ultimi anni, sono diventate sempre più potenti dal punto di vista dell’elaborazione dati, a bassissimo consumo energetico, di piccolissime dimensioni e bassissimo costo (cioè ultra-embedded), ma i paradigmi Deep Learning non sono concepiti per essere eseguiti dalle MCU, data la complessità computazionale e gli elevati requisiti di memoria richiesti.
In definitiva, l’edge computing porta molti benefici ma sottintende un evoluzione software che deve andare di pari passo con quella hardware.
Non è sufficiente essere in grado in loco di elaborare, aggregare e trasmettere il dato al cloud che raccoglie i dati permettendo una visione d’insieme del sistema. L’estremizzazione dell’IoT presuppone che gli “oggetti intelligenti” debbano essere in grado imparare dai dati acquisiti i quali permetteranno di crearsi un bagaglio di esperienza sulla base della quale possano prendere decisioni e svolgere azioni.
Oggigiorno per addestrare modelli matematici si ricorre al Deep Learning con reti neurali profonde alle quali vengono dati in pasto enormi quantità di dati. Il processo di training della rete neurali risulta essere molto dispendioso in termini computazionali di potenza di calcolo ed economici. Questo è uno dei motivi principali per cui non si può abbandonare completamente il cloud computing.
L’ingresso sul mercato di nuove tecnologie di MCUs ci permetteranno di procedere ad una atomizzazione del concetto di monitoraggio: ogni sensore sarà un sistema di monitoraggio che dovrà essere integrato con gli altri. La scalabilità e modularità del sistema sarà pressoché infinita. In questo modo Sensoworks diverrà un system integrator su cloud e si occuperà di cucire relazioni tra i vari sistemi di monitoraggio atomizzati.
La discussione prosegue qui.
Scrivimi la tua opinione sull’argomento, o per suggerire uno dei prossimi approfondimenti!
AUTORE: ANDREA CANFORA
Senior Data Scientist in Sensoworks. Le sue competenze ingegneristiche trasversali su più settori gli permettono di essere l’anello di congiunzione tra i team che disegnano le soluzioni Sensoworks e il team tecnico che si occupa di realizzarle.