L’edge computing è un’architettura IT distribuita e decentralizzata, caratterizzata da una serie di data center perimetrali. Questi data center locali elaborano e memorizzano le informazioni critiche in locale, trasmettendo tutti i dati ricevuti e/o elaborati a un data center centrale o a un repository di cloud storage. Sfruttando la disponibilità sul mercato di componenti e sistemi elettronici SFF (Small Form Factor) di costo decrescente, questa topologia di rete porta i componenti base di elaborazione, storage e networking più vicino alle fonti che generano i dati. Il caso tipico è quello dei dispositivi e delle implementazioni IoT che spesso devono fronteggiare problemi di latenza, mancanza di banda, affidabilità e non sono gestibili con un modello cloud convenzionale.
Le tecnologie edge riducono la mole di dati da inviare nel cloud, elaborando i dati critici, sensibili alla latenza nel punto di origine, tramite uno smart device, o inviandoli a un server intermedio, localizzato in prossimità. I dati meno time-sensitive possono essere trasmessi all’infrastruttura cloud o al data center dell’impresa per consentire elaborazioni più complesse come, ad esempio, l’analisi di big data, le attività di training per affinare l’apprendimento degli algoritmi di Machine Learning (ML), lo storage di lungo periodo o l’analisi di dati.
Cresce la necessità di un’elaborazione perimetrale
I dati da cui le aziende dipendono per monitorare le proprie prestazioni, capire i propri clienti e prendere decisioni stanno potenziandosi in ogni direzione. Secondo Gartner entro il 2025 il 75% dei dati aziendali verrà generato al di fuori del cloud e degli ambienti centrali, con un incremento significativo rispetto al 10% del 2017.
Una proliferazione di endpoint intelligenti e distribuiti
La Internet of Things ha bisogno di un nuovo livello di connettività sia per gestire milioni di punti dati sia per gestire una quantità crescente di smart objects. La diffusione pervasiva della IoT fa si che sempre più spesso i dati vengano generati, elaborati e analizzati alla fonte (il cosidetto edge) che si tratti del cellulare di un dipendente, di un sensore intelligente in una fabbrica, di un dispositivo touchscreen in un negozio o di un robot utilizzato in un ospedale.
Il motivo per cui i dati si stanno spostando nell’edge è legato alla necessità di utilizzarli in tempo reale.
Anche una latenza inferiore al millisecondo rispetto all’invio e alla ricezione dei dati passando dal cloud può comprometterne l’efficacia di un sistema. Un set di semafori intelligenti, una componente particolare su una linea di produzione così come un dispositivo di monitoraggio in un’unità di terapia intensiva devono poter contare su un sistema di elaborazione che rende i dati immediatamente azionabili.
I livelli di adozione dell’edge computing
Secondo gli analisti di Vanson Bourne, a livello worldwide quasi 8 decision maker IT su 10 (78%) che in fase di produzione già utilizzano tecnologie edge affermano di essere in grado di utilizzare dati di qualità che migliorano i loro processi decisionali e di business. Rispetto al livello di adozione, il 42% del campione si trova ancora in
fase pilota mentre la percentuale di chi intende avviare progetti pilota nel corso del prossimo anno si attesta nell’ordine del 31%.
I decisori IT scelgono l’edge computing per diversi motivi, in primis per migliorare la sicurezza, la visibilità e la customer experience.
A livello di settori, le casistiche di utilizzo dell’edge più diffuse riguardano il tracciamento e il monitoraggio di singoli oggetti lungo la supply chain nel retail (51%), il ricorso al riconoscimento del volto nel settore alberghiero e dell’ospitalità (49%) nonché il miglioramento dell’esperienza delle strutture sanitarie per mezzo di tool e applicazioni always-on (49%). Oltre metà (55%) dei decisori IT riconosce che l’ottimizzazione associata al Machine Learning e all’Intelligenza Artificiale sulle rispettive reti è legata all’esigenza di un’elaborazione dei dati molto più rapida.
7 sfide dell’edge computing da considerare
I responsabili IT sono consapevoli di come l’analisi dei dati real-time in maggior prossimità dell’edge produca livelli superiori di efficienza e insight che, a loro volta, conducono a migliori risultati di business. Tuttavia, l’adozione di questi modelli richiede di valutare attentamente alcuni elementi. Questi i principali:
- Larghezza di banda di rete – La larghezza di banda della rete cambia man mano che le aziende spostano verso il perimetro elaborazione e dati. In genere le aziende assegnano una larghezza di banda maggiore ai data center e una larghezza di banda inferiore agli endpoint. L’edge computing, al contrario, determina la necessità di una maggiore larghezza di banda in tutta la rete;
- Calcolo distribuito – Rispetto alla potenza di calcolo è necessario considerare l’edge location come un aspetto aggiuntivo. I modelli computazionali consolidati stanno lasciando alla rete un ruolo chiave rispetto all’elaborazione. L’infrastruttura edge, infatti, deve essere dimensionata in modo appropriato. Il calcolo distribuito in un microdata center perimetrale, ad esempio, può richiedere risorse tanto quanto in un data center centralizzato;
- Latenza – Nell’edge computing il calcolo è più vicino ai dati raccolti per cui la latenza dell’applicazione viene ridotta analogamente alla latenza del processo decisionale. Meno movimenti avanti e indietro dal bordo al centro significano risposte più veloci e azioni più tempestive che, grazie al 5G, risulteranno in real time;
- Controllo e gestione – All’interno di un’organizzazione l’edge location può essere flessibile. È possibile includere un cloud privato o un cloud pubblico, ma la gestione e il controllo devono seguire le stesse procedure e protocolli, indipendentemente dalla edge location del data center perimetrale fisico. Idealmente, le aziende utilizzeranno strumenti di orchestrazione di ultima generazione per aiutare a gestire e controllare le applicazioni in modo coerente, indipendentemente dalla locazione;
- Scalabilità – L’aggiunta di più dispositivi connessi all’edge aumenta l’economia di scala complessiva su cui lavorano i team IT. L’edge computing non riguarda semplicemente la quantità di server perimetrali ma anche una scalabilità a livello di elaborazione, di rete, di archiviazione, di gestione, di sicurezza, di licenze e via dicendo. Le aziende devono comprenderlo quando spostano le applicazioni sul perimetro della rete. I data center perimetrali, infatti, non prevedono solo più hardware in una posizione remota. L’impatto si estende a tutto l’ecosistema di risorse coinvolto;
- Backup – Il modello di edge computing è tipicamente guidato dal punto in cui vengono generati i dati. Le aziende necessitano di una strategia di protezione di queste informazioni globale, con una comprensione dei dati, indipendente dalla loro posizione. I requisiti di larghezza di banda della rete saranno tanto critici quanto le valutazioni relative ai supporti di archiviazione. Per proteggere queste risorse, infatti, non ha senso considerare le policy di backup sulla rete.
Scopri i prodotti e le soluzioni Fastweb per innovare il tuo business
Fonte Fastweb.it