Storage e agricoltura. Di primo acchito sembrerebbe uno strano accostamento, ma non è così. Sempre più attività legate all’agrifood portano alla produzione di dati digitali che rivestono un’importanza strategica. Quindi vanno conservati in modo adeguato, non solo per essere sicuri che non siano cancellati, ma anche che siano sempre disponibili qualora sia necessario consultarli.
Per avere un’indicazione su come realizzare un efficace backup, abbiamo chiesto dei suggerimenti a un esperto del settore storage e cloud: Lorenzo De Rita, account manager di Synology.
Perché anche nell’ambito dell’agrifood è oggi importante una strategia di storage/backup?
Ricordo che dagli studi dell’Osservatorio Smart Agrifood, risulta che a fine 2022 in Italia più del 50% delle aziende agricole contava almeno una soluzione di agricoltura 4.0, con una media di tre implementazioni per azienda. Questa diffusione del digitale mostra l’importanza di una strategia di backup dei dati. Molti imprenditori legati al mondo agroalimentare sono infatti tuttora inconsapevoli dei rischi derivanti sia dagli attacchi informatici sia dai possibili guasti dei dispositivi elettronici connessi (IoT) usati nel monitoraggio delle infrastrutture per la coltivazione e nelle misurazioni, come per esempio per determinare il PH del terreno. Spesso chi opera nell’agrifood non percepisce tali rischi come una minaccia alla sua attività. Sarebbe invece importante essere pronti a salvaguardare quei dati.
Però è basilare affidarsi a partner tecnologici esperti per definire la migliore strategia di backup in funzione delle applicazioni in uso.
Stabilito di dover gestire e amministrare i dati, come si può fare?
Una strategia di backup può essere definita con un piano di azioni da intraprendere per garantire l’integrità dei dati critici.
Questa strategia può essere intrapresa e sviluppata in quattro fasi principali.
Anzitutto, determinare il tipo di dati valutandoli e categorizzandoli in base alla loro importanza. Per esempio, possiamo categorizzare i dati come essenzialmente critici, quindi indispensabili per la sopravvivenza dell’azienda e dei servizi offerti; mission critical, quindi necessari all’azienda per operare e fornire certi servizi; up-to-performance, che sono estrapolati dalle aziende e analizzati per offrire servizi di qualità, per esempio su come essere competitivi sul mercato.
Quando si effettua la categorizzazione è possibile definire l’RTO (Recovery Time Object) ovvero il periodo di tempo massimo accettabile da un’azienda per recuperare i dati compromessi. In questo caso, parlando di agrifood, saranno i dati che un impianto manda per esempio a un server centrale, oppure ricavati dai dispositivi dell’IoT o anche dell’amministrazione.
Il secondo passo sta nel determinare quanto spesso sono salvati tali dati. La frequenza con cui si esegue il backup deve essere allineata con l’RPO (Recovery Point Objective) che è il periodo massimo di tempo consentito tra il verificarsi di un disservizio e l’ultimo backup utile. Pertanto, più frequentemente viene eseguito il backup dei dati, maggiori sono le probabilità di rispettare l’RPO concordato.
La terza fase per eseguire la strategia di backup consiste nell’identificare e implementare una soluzione con un ripristino sostenibile. Quindi, definire che tipo di backup si vuole fare: completo, differenziale (in cui vengano copiate solo aggiunte o modifiche) o incrementale (in cui sono copiate le modifiche del backup incrementale più recente). È importante stabilire dove risiedono i dati e questo perché oggi tanti credono di usare applicazioni sui propri computer, invece sono nel cloud. Non che i dati in cloud non siano sicuri, le piattaforme sono robuste, però è importante studiare una strategia per estrapolare e salvare determinati dati. Bisogna perciò stabilire con sicurezza dove sono quei dati.
Infine, per definire un backup si deve anche capire quali sono le funzionalità richieste in base al tipo di infrastruttura. Per esempio, tali funzionalità potrebbero essere un’interfaccia intuitiva e un portale di ripristino self-service facile da utilizzare.
Stabilite le funzionalità, l’infrastruttura va testata e monitorata. Serve un collaudo, un periodo di test per verificare che il backup non solo sia accurato (che rispecchi quanto dichiarato nel contratto) ma anche che funzioni in modo corretto. Inoltre, si dovrebbe individuare qualsiasi vulnerabilità presente all’interno dell’infrastruttura, per proteggersi dai cybercriminali.
Quando è meglio il backup in cloud e quando invece è preferibile conservare i dati in locale?
Dipende dalle necessità. Oggi la creazione di un’infrastruttura on premise obbliga a dover affrontare sfide di governance, compliance o l’aspetto “età delle applicazioni” che non è misurabile né mitigabile. Senza dimenticare i costi delle licenze e di gestione. Nel cloud si azzerano i costi di acquisto e manutenzione dell’hardware, si ha un’alta scalabilità (e si pagano solo le risorse che si usano) e viene assicurata l’accessibilità ai propri dati sempre e in sicurezza. Dal canto suo, un’infrastruttura on primis riduce i costi legati alla rete e permette la totale gestione dei dati in locale. Questo è un importante vantaggio, ma si deve prevedere una copia dei dati in uno storage distante, per cautelarsi a fronte di qualsiasi tipo di disastro.
Nel caso di un backup in cloud, chi è responsabile dell’integrità dei dati?
Per chi utilizza applicazioni o backup forniti as a service la responsabilità dei dati è condivisa, generalmente tra il cloud service provider e il system integrator. Infatti, tutti i costi legati all’hardware, alla manutenzione e al disaster recovery gravano sul cloud service provider, che quindi si fa carico di una grossa parte dei rischi. Allo stesso tempo, però, una volta che il cloud service provider ho offerto il servizio all’utente, hardware o software che sia, è compito dell’integratore garantirne la sicurezza.
Va sottolineato che oggi si fa sempre più ricorso al multicloud o al cloud ibrido perché quasi nessuno si affida interamente a un singolo cloud service provider. Le soluzioni ibride consentono di migrare e gestire i carichi di lavoro tra i vari ambienti cloud e on premise. Questo non solo garantisce la sicurezza dei dati in cloud ma offre anche la possibilità di averli disponibili in locale. Inoltre, consente configurazioni più versatili, che meglio soddisfano esigenze specifiche, gestendo meglio i costi delle risorse in base a ciò che effettivamente si usa.
Generalmente, si tende a mantenere on premise quelle applicazioni ( non migrabili )e quei dati che devono rispettare determinate conformità normative o che potrebbero risentire negativamente di latenze dovute al cloud.
Che ruolo ha lo storage per la sostenibilità?
Un data center ha un importante impatto ambientale. Secondo il MIT, a livello globale l’elettricità utilizzata dai data center è responsabile dello 0,3% delle emissioni complessive di anidride carbonica ( MIT The staggering ecological impacts of computation and the cloud) . C’è poi il problema dello smaltimento dei rifiuti elettronici prodotti, a cui si affianca quello dell’utilizzo delle risorse locali come l’acqua.
Un’altra ricerca del UpTime Institute ha dimostrato che un data center con metodi di raffreddamento tradizionali utilizza circa 25 milioni di litri d’acqua l’anno e la generazione di energia elettrica per mantenere l’impianto attivo richiede volumi d’acqua ancora superiori (Uptime istitute Ignore Data Center Water Consumption).
I data center hanno un impatto anche sul territorio. Pensiamo alla costruzione e allo smaltimento di un data center, agli ettari di terreno occupato e all’impatto sulla vegetazione circostante.
La tecnologia ha però fatto passi da gigante consentendo la realizzazione di infrastrutture ecosostenibili. Lo storage Synology, per esempio, nei modelli di nuova generazione usa fino al 27% di plastica riciclata post consumo (è derivata dagli scarti elettronici). Inoltre, Synology ha deciso anche di partecipare a programmi di Amazon di imballaggio senza frustrazioni certificati FFP per ridurre i rifiuti e l’impronta su sull’ambiente (Commits to Post-Consumer Recycled Plastic Chassis).
Quali prodotti consiglia di scegliere per creare un’efficace soluzione di storage?
Una volta definita una strategia di backup, va implementata considerando la cosiddetta regola 3-2-1: tre copie dei nostri dati su due media differenti e una remota per il disaster recovery.
Esistono due tipi di backup dei dati: backup in e backup out. Il backup in è quello dei dispositivi digitali on premise, quindi dei dati che vengono spostati verso l’interno. Synology consente di fare questo backup tramite la suite applicativa chiamata Active Backup for business.
Il backup out è il backup effettivo dell’infrastruttura su una destinazione esterna, che può essere un servizio offerto da un cloud service provider, un’infrastruttura remota, un dispositivo USB.
Una volta stabilita la destinazione, bisogna definire il contesto da salvaguardare. Quindi, insieme al partner tecnologico si farà un’analisi tecnica preliminare della mole di dati, quanto spazio necessita (considerando anche possibili espansioni future) il tipo di ridondanza e il numero di volumi da gestire.
Si può poi definire quanti utenti contemporaneamente deve gestire un prodotto, in quanti accederanno ai dati e quale sarà il contenuto. Questa è la parte più importante perché è il tipo di contenuti da salvare a determinare quale backup attuare.
Fatto questo, si hanno tutte le informazioni necessarie per stabilire quali prodotti o servizi usare per il backup.
Synology ha organizzato un evento che avrà luogo a Roma dedicato alle soluzioni storage e backup nel quale i partner avranno modo di toccare con mano le ultime soluzioni e tecnologie offerte da Synology per garantire la salvaguardia dei propri dati.