Sequestro server Comune di Amatrice: si poteva evitare

Fig. 1: Se vi fosse stata la giusta competenza, tale ricerca sarebbe stata superflua.
Fig. 1: Se vi fosse stata la giusta competenza, tale ricerca sarebbe stata superflua.
Marco Valerio Principato
Di
Pubblicato il: 01/09/2016
Commenti Commenta | Permalink

Dopo aver parlato tanto di dematerializzazione e altre parole probabilmente sconosciute, ecco come la pubblica amministrazione paga l’assenza di competenze reali.

Roma – «La procura di Rieti, nell’ambito dell’inchiesta sul sisma che lo scorso 24 agosto ha devastato i comuni di Amatrice e Accumoli, ha disposto il sequestro del server del Comune di Amatrice insieme a tutta la documentazione disponibile nell’archivio e negli uffici tecnici dello stesso municipio», annunciava ieri l’ANSA.

Lo scopo, spiega l’Agenzia, è quello di rintracciare la documentazione tecnico-amministrativa utile per lo svolgimento delle indagini di cui la Procura si sta occupando, al fine di fare chiarezza sulle responsabilità circa i crolli che hanno afflitto il Comune di Amatrice e dintorni a causa del sisma del centro Italia del 24 agosto 2016.

È davvero spiacevole, dopo la pausa estiva, riprendere la pubblicazione di articoli su questo sito partendo proprio dall’ennesimo evento sismico, l’ultimo di una serie che da sempre affligge l’Italia e al quale – naturalmente – essa non era preparata.

Ma non entriamo nel merito delle questioni di prevenzione1. Quel che ci interessa su queste pagine è lo sforzo che ora Vigili del Fuoco, tecnici e specialisti dovranno compiere per cercare di riportare alla luce i dati contenuti nelle memorie di massa di quel server.

Uno sforzo che, a fronte di un minimo di competenza reale in materia, avrebbe potuto essere evitato.

Quante volte uomini politici, “servi” di vario genere, traffichini e trafficanti nel mondo degli appalti e quant’altro, si sono riempiti la bocca con parole quali cloud computing, informatizzazione, dematerializzazione, eccetera. La circostanza dimostra che hanno parlato – per l’ennesima volta – senza sapere di cosa parlavano.

Chi segue abitualmente queste pagine ha già capito. In tema di sicurezza informatica, laddove siano memorizzate informazioni vitali, la prima cosa che si fa è quella di pensare al Disaster Recovery. Che non è una parolaccia: non si intende, con disaster, solo il “disastro informatico”, bensì qualsiasi tipo di disastro. Inclusi un terremoto, un alluvione, il diluvio universale, qualunque evento che renda inservibili o inaccessibili le memorie su cui si depositano dati importanti, o sensibili, o essenziali per qualsiasi ragione.

Allora ce la sentiremmo di indicare alla Procura di Rieti un altro filone di indagine: quello di accertare le responsabilità di chi, a suo tempo, non ha pensato ad avere una o più copie sincronizzate a distanza di tutti gli archivi memorizzati su quel “server”.

Perché se lo avesse fatto, avrebbe non solo risparmiato un bel po’ di lavoro aggiuntivo a coloro che, in tutta la catena, sono impegnati a gestire le conseguenze dell’evento sismico, ma anche agevolato in maniera sostanziale gli inquirenti nell’acquisire tutti i dati dei quali essi ritengono di aver bisogno per fare chiarezza sull’occorso.

E questo, lo ribadiamo con forza, non significa che si sarebbe dovuto fare ricorso esclusivo al cloud storage, niente affatto: i servizi di cloud storage e i servizi cloud in genere (anche senza arrivare al fondamentalismo di Richard Stallman, secondo cui sono un’idiozia) vanno impiegati con estrema attenzione e attenta riflessione, perché fare affidamento solo su di essi significa cedere a terzi il controllo sulle informazioni dei quali si è proprietari o titolari.

E se questo è già arduo da ammettere per un privato o una piccola/media impresa, figurarsi per una Pubblica Amministrazione, centrale o locale che sia, o una realtà enterprise (discutibile anglicismo moderno per definire una “grande azienda”).

Si sarebbe dovuto, invece, disporre di neppure troppo avanzate competenze in materia di reti di telecomunicazioni, che avrebbero suggerito l’archiviazione sincronizzata a distanza, fattibile anche tramite Internet e con l’uso di una normalissima VPN2, grazie alla quale lo sforzo di ricerca ed estrazione dei dati, che ora attende le squadre incaricate dagli inquirenti, sarebbe stato del tutto superfluo.

Marco Valerio Principato

(Articolo in formato PDF)


1 Pur trattandosi, naturalmente, di questioni vitali: è sufficiente leggere le cronache per rendersi conto di quanti sprechi di danaro pubblico siano stati fatti su quel tema, a fronte di risultati di prevenzione, in molti casi, pressoché inesistenti.

2 Senza per questo voler assurgere ad “esperto” (pur essendolo), è esattamente quel che fa da anni chi scrive, con mezzi del tutto normali e un minimo di investimenti, il cui valore – in circostanze come quella del terremoto – è inestimabile. Se ne è parlato nell’articolo Datagate: belli di casa… e perché, allora, ho la mia «cloud privata»?, pubblicato su questo sito il 10 agosto del 2013.


Marco Valerio Principato (2072 articoli)

Informatico sin dal 1980, esperto di Internet ed elettronica e attivo in Rete dal 1999, ha curato articoli in diverse pubblicazioni specifiche tra cui Punto Informatico (direzione P. De Andreis) e CompuServe Magazine. Laureato con lode in Scienze della Comunicazione, è responsabile di questo sito.


Commenti (Facebook)
Commenti (locali)




Nota: La moderazione in uso potrebbe ritardare la pubblicazione del commento. Non è necessario reinviarlo.