banner
Centro notizie
Per noi è una priorità aggiungere costantemente prodotti nuovi e creativi alla nostra collezione in tutto il mondo.

TinyML: applicazioni, limitazioni e utilizzo nei dispositivi IoT e Edge

Aug 03, 2023

Di

Negli ultimi anni, l’intelligenza artificiale (AI) e il machine learning (ML) hanno assistito a un aumento vertiginoso di popolarità e applicazioni, non solo nel settore ma anche nel mondo accademico. Tuttavia, i modelli ML e AI di oggi presentano una limitazione importante: richiedono un'enorme quantità di potenza di calcolo e di elaborazione per ottenere i risultati e la precisione desiderati. Ciò spesso limita il loro utilizzo a dispositivi ad alta capacità con una notevole potenza di calcolo.

Ma considerati i progressi compiuti nella tecnologia dei sistemi embedded e lo sviluppo sostanziale nel settore dell’Internet delle cose, è auspicabile incorporare l’uso di tecniche e concetti di ML in un sistema embedded con risorse limitate per un’intelligenza ubiqua. Il desiderio di utilizzare concetti ML in sistemi embedded e IoT è il principale fattore motivante dietro lo sviluppo di TinyML, una tecnica ML incorporata che consente modelli e applicazioni ML su più dispositivi economici, con risorse limitate, vincoli di potenza.

Tuttavia, l’implementazione del ML su dispositivi con risorse limitate non è stata semplice perché l’implementazione di modelli ML su dispositivi con bassa potenza di calcolo presenta sfide in termini di ottimizzazione, capacità di elaborazione, affidabilità, manutenzione dei modelli e molto altro.

In questo articolo approfondiremo il modello TinyML e impareremo di più sul suo background, sugli strumenti che supportano TinyML e sulle applicazioni di TinyML che utilizzano tecnologie avanzate. Quindi iniziamo.

L'Internet of Things o i dispositivi IoT mirano a sfruttare l'edge computing, un paradigma informatico che si riferisce a una gamma di dispositivi e reti vicini all'utente per consentire l'elaborazione continua e in tempo reale dei dati provenienti da milioni di sensori e dispositivi interconnessi tra loro. Uno dei principali vantaggi dei dispositivi IoT è che richiedono una bassa potenza di calcolo e di elaborazione poiché sono implementabili ai margini della rete e quindi hanno un ingombro di memoria ridotto.

Inoltre, i dispositivi IoT fanno molto affidamento su piattaforme edge per raccogliere e quindi trasmettere i dati mentre questi dispositivi edge raccolgono dati sensoriali e quindi li trasmettono a una posizione vicina o a piattaforme cloud per l'elaborazione. La tecnologia dell'edge computing archivia ed esegue l'elaborazione dei dati e fornisce inoltre l'infrastruttura necessaria per supportare l'elaborazione distribuita.

L'implementazione dell'edge computing nei dispositivi IoT fornisce

Inoltre, poiché i dispositivi periferici possono implementare una tecnica collaborativa tra i sensori e il cloud, l’elaborazione dei dati può essere condotta ai margini della rete invece che sulla piattaforma cloud. Ciò può comportare un'efficace gestione dei dati, persistenza dei dati, distribuzione efficace e memorizzazione nella cache dei contenuti. Inoltre, implementare l’IoT in applicazioni che trattano l’interazione H2M o uomo-macchina e il moderno edge computing sanitario offre un modo per migliorare significativamente i servizi di rete.

Recenti ricerche nel campo dell’edge computing dell’IoT hanno dimostrato il potenziale di implementare tecniche di Machine Learning in diversi casi d’uso dell’IoT. Tuttavia, il problema principale è che i modelli tradizionali di machine learning spesso richiedono una forte potenza di calcolo e di elaborazione e un’elevata capacità di memoria che limita l’implementazione dei modelli ML nei dispositivi e nelle applicazioni IoT.

Inoltre, la tecnologia edge computing oggi manca di un'elevata capacità di trasmissione e di un effettivo risparmio energetico che porta a sistemi eterogenei, che è la ragione principale alla base della necessità di un'infrastruttura armoniosa e olistica principalmente per l'aggiornamento, la formazione e l'implementazione di modelli ML. L'architettura progettata per i dispositivi embedded rappresenta un'altra sfida poiché queste architetture dipendono dai requisiti hardware e software che variano da dispositivo a dispositivo. È il motivo principale per cui è difficile creare un'architettura ML standard per le reti IoT.

Inoltre, nello scenario attuale, i dati generati da diversi dispositivi vengono inviati a piattaforme cloud per l’elaborazione a causa della natura computazionalmente intensiva delle implementazioni di rete. Inoltre, i modelli ML dipendono spesso dal deep learning, dalle reti neurali profonde, dai circuiti integrati specifici dell'applicazione (ASIC) e dalle unità di elaborazione grafica (GPU) per l'elaborazione dei dati e spesso hanno requisiti di potenza e memoria più elevati. L’implementazione di modelli ML completi su dispositivi IoT non è una soluzione praticabile a causa dell’evidente mancanza di capacità di calcolo ed elaborazione e di soluzioni di archiviazione limitate.