In che modo gli edge analytics promuoveranno un computing più intelligente

Molti casi d'uso di analisi e machine learning si collegano ai dati archiviati in data warehouse o data lake, eseguono algoritmi su set di dati completi o su un sottoinsieme di dati e calcolano i risultati su architetture cloud. Questo approccio funziona bene quando i dati non cambiano frequentemente. Ma cosa succede se i dati cambiano frequentemente?

Oggi, sempre più aziende hanno bisogno di elaborare dati ed eseguire analisi in tempo reale. L'IoT guida gran parte di questo cambiamento di paradigma poiché lo streaming di dati dai sensori richiede elaborazione e analisi immediate per controllare i sistemi a valle. L'analisi in tempo reale è importante anche in molti settori, tra cui sanità, servizi finanziari, produzione e pubblicità, dove piccoli cambiamenti nei dati possono avere impatti finanziari, sanitari, di sicurezza e di altro tipo significativi.

Se sei interessato all'abilitazione dell'analisi in tempo reale e alle tecnologie emergenti che sfruttano un mix di edge computing, AR / VR, sensori IoT su larga scala e machine learning su larga scala, allora è importante comprendere le considerazioni di progettazione per l'analisi edge. I casi d'uso di edge computing come droni autonomi, città intelligenti, gestione della catena di vendita al dettaglio e reti di gioco in realtà aumentata mirano a implementare analisi edge su larga scala e altamente affidabili.

Analisi edge, analisi di streaming e edge computing

Diversi paradigmi di analisi, machine learning e edge computing sono correlati all'analisi edge:

  • L'analisi edge si riferisce agli algoritmi di analisi e apprendimento automatico distribuiti nell'infrastruttura al di fuori dell'infrastruttura cloud e "sull'edge" in un'infrastruttura localizzata geograficamente.
  • L'analisi in streaming si riferisce all'analisi dei dati in tempo reale mentre i dati vengono elaborati. L'analisi dello streaming può essere eseguita nel cloud o sull'edge a seconda del caso d'uso.
  • L'elaborazione degli eventi è un modo per elaborare i dati e guidare le decisioni in tempo reale. Questa elaborazione è un sottoinsieme dell'analisi di streaming e gli sviluppatori utilizzano architetture guidate da eventi per identificare eventi e attivare azioni a valle.
  • L'edge computing si riferisce alla distribuzione del calcolo su dispositivi edge e infrastruttura di rete.
  • Il Fog Computing è un'architettura più generalizzata che divide il calcolo tra ambienti edge, near edge e cloud computing.

Quando si progettano soluzioni che richiedono analisi edge, gli architetti devono considerare vincoli fisici e di alimentazione, costi di rete e affidabilità, considerazioni sulla sicurezza e requisiti di elaborazione.  

Motivi per distribuire analisi sull'edge

Potresti chiederti perché distribuire l'infrastruttura all'edge per l'analisi? Ci sono considerazioni tecniche, sui costi e sulla conformità che tengono conto di queste decisioni.

Le applicazioni che hanno un impatto sulla sicurezza umana e richiedono resilienza nell'architettura di elaborazione sono un caso d'uso per l'analisi edge. Le applicazioni che richiedono una bassa latenza tra origini dati come i sensori IoT e l'infrastruttura di calcolo analitico sono un secondo caso d'uso che spesso richiede analisi edge. Esempi di questi casi d'uso includono: 

  • Automobili a guida autonoma, macchine automatizzate o qualsiasi mezzo di trasporto in cui i sistemi di controllo automatizzano tutta o parte della navigazione.
  • Edifici intelligenti che dispongono di controlli di sicurezza in tempo reale e vogliono evitare di avere dipendenze dalla rete e dall'infrastruttura cloud per consentire alle persone di entrare e uscire dall'edificio in sicurezza.
  • Città intelligenti che monitorano il trasporto pubblico, implementano contatori intelligenti per la fatturazione delle utenze e soluzioni intelligenti per la gestione dei rifiuti. 

Le considerazioni sui costi sono un fattore significativo nell'utilizzo dell'analisi edge nei sistemi di produzione. Si consideri una serie di telecamere che scansionano i prodotti fabbricati alla ricerca di difetti mentre si trovano su nastri trasportatori in rapido movimento. Può essere più conveniente distribuire dispositivi di edge computing in fabbrica per eseguire l'elaborazione delle immagini, piuttosto che avere reti ad alta velocità installate per trasmettere immagini video al cloud.

Ho parlato con Achal Prabhakar, VP of Engineering presso Landing AI, un'azienda di intelligenza artificiale industriale con soluzioni incentrate sulla visione artificiale. "Gli stabilimenti di produzione sono molto diversi dalle applicazioni di analisi tradizionali e quindi richiedono un ripensamento dell'intelligenza artificiale, inclusa la distribuzione", mi ha detto Prabhakar. "Una grande area di interesse per noi è l'implementazione di complessi modelli di visione di deep learning con apprendimento continuo direttamente sulle linee di produzione utilizzando dispositivi capaci ma di base".

Anche l'implementazione dell'analisi in aree remote come i siti di costruzione e perforazione trae vantaggio dall'utilizzo dell'analisi e dell'elaborazione edge. Invece di fare affidamento su reti geografiche costose e potenzialmente inaffidabili, gli ingegneri implementano un'infrastruttura di analisi perimetrale in loco per supportare i dati e l'elaborazione analitica richiesti. Ad esempio, una compagnia petrolifera e del gas ha implementato una soluzione di analisi in streaming con una piattaforma di elaborazione distribuita in memoria fino all'edge e ha ridotto i tempi di perforazione fino al 20%, da 15 giorni a 12 giorni tipici. 

La conformità e la governance dei dati sono un altro motivo per l'analisi edge. L'implementazione di un'infrastruttura localizzata può aiutare a soddisfare la conformità al GDPR e altre normative sulla sovranità dei dati archiviando ed elaborando dati limitati nei paesi in cui vengono raccolti.

Progettare analisi per l'edge

Sfortunatamente, prendere modelli e altre analisi e distribuirli nell'infrastruttura di edge computing non è sempre banale. I requisiti di elaborazione per l'elaborazione di grandi set di dati tramite modelli di dati ad alta intensità di calcolo possono richiedere una riprogettazione prima di eseguirli e distribuirli su un'infrastruttura di edge computing.

Per prima cosa, molti sviluppatori e data scientist ora sfruttano le piattaforme di analisi di livello superiore disponibili su cloud pubblici e privati. IoT e sensori spesso utilizzano applicazioni incorporate scritte in C / C ++, che possono essere un terreno poco familiare e impegnativo per i data scientist e gli ingegneri cloud-native.

Un altro problema potrebbe essere i modelli stessi. Quando i data scientist lavorano nel cloud e scalano le risorse di elaborazione su richiesta a costi relativamente bassi, sono in grado di sviluppare modelli di machine learning complessi, con molte caratteristiche e parametri, per ottimizzare completamente i risultati. Tuttavia, quando si distribuiscono modelli su un'infrastruttura di edge computing, un algoritmo eccessivamente complesso potrebbe aumentare notevolmente il costo dell'infrastruttura, le dimensioni dei dispositivi e i requisiti di alimentazione.

Ho discusso le sfide della distribuzione di modelli di intelligenza artificiale all'edge con Marshall Choy, vicepresidente del prodotto presso SambaNova Systems. "Gli sviluppatori di modelli per le applicazioni di intelligenza artificiale edge si stanno concentrando sempre di più su modelli altamente dettagliati per ottenere miglioramenti nella riduzione dei parametri e nei requisiti di calcolo", ha osservato. "I requisiti di formazione per questi modelli più piccoli e altamente dettagliati rimangono scoraggianti."

Un'altra considerazione è che la distribuzione di un sistema di analisi edge altamente affidabile e sicuro richiede la progettazione e l'implementazione di architetture, sistemi, reti, software e modelli altamente tolleranti ai guasti.

Ho parlato con Dale Kim, direttore senior del marketing di prodotto presso Hazelcast, dei casi d'uso e dei vincoli durante l'elaborazione dei dati all'edge. Ha commentato che, sebbene le ottimizzazioni delle apparecchiature, la manutenzione preventiva, i controlli di garanzia della qualità e gli avvisi critici siano tutti disponibili all'edge, ci sono nuove sfide come spazio hardware limitato, accessibilità fisica limitata, larghezza di banda limitata e maggiori problemi di sicurezza.

"Ciò significa che l'infrastruttura a cui sei abituato nel tuo data center non funzionerà necessariamente", ha affermato Kim. "Quindi è necessario esplorare nuove tecnologie progettate pensando alle architetture di edge computing".

La prossima frontiera dell'analisi

I casi d'uso più diffusi per l'analisi edge oggi sono le funzioni di elaborazione dei dati, inclusi il filtraggio e le aggregazioni dei dati. Ma poiché sempre più aziende implementano sensori IoT su larga scala, la necessità di applicare algoritmi di analisi, apprendimento automatico e intelligenza artificiale in tempo reale richiederà più implementazioni sull'edge. 

Le possibilità all'edge creano un futuro molto entusiasmante per lo smart computing poiché i sensori diventano più economici, le applicazioni richiedono più analisi in tempo reale e lo sviluppo di algoritmi ottimizzati ed economici per l'edge diventa più facile.