Con tutto il trambusto di enormi data center NSA che contengono migliaia di bit di dati sulla nostra vita privata, c'è una cosa di cui non si è parlato molto, almeno sulla CNN. Implica un problema di ingegneria che è emerso insieme alla tecnologia cloud, ai big data e agli impressionanti centri di archiviazione di dati fisici che ora vengono costruiti in tutto il mondo. Quindi, cos'è? Bene, indipendentemente da chi stia amministrando uno dei giganteschi sistemi IT che gestiscono queste strutture, c'è bisogno di sistemi software che aiutino tutti questi dati a entrare e uscire rapidamente dalla pipeline. Tale esigenza rappresenta una delle domande o dei puzzle IT più interessanti che i professionisti devono affrontare oggi.
Come molti esperti sottolineano, l'estrema richiesta odierna di elaborazione dei dati va ben oltre gli approcci tradizionali. In parole povere, l'uso di semplici strutture e strumenti di database come l'interfaccia di query SQL non fornirà abbastanza potenza di elaborazione o funzionalità per artisti del calibro di sistemi proprietari che si sono sviluppati negli ultimi anni. Gli archivi delle grandi aziende tecnologiche di oggi necessitano di una tecnologia estremamente scalabile. Hanno bisogno di strumenti di elaborazione dei dati in grado di immettere e produrre risultati in volumi molto più elevati di quelli che un singolo server può facilitare. Hanno bisogno di soluzioni che possano essere rapidamente accelerate per la crescita, soluzioni che includono livelli complessi di intelligenza artificiale, soluzioni progettate per una facile gestione da parte di un dipartimento IT.
La domanda è: in che modo le aziende e gli enti governativi superano i limiti del tradizionale percorso di gestione dei dati? Qui daremo un'occhiata a un'opzione molto promettente: il software che gestisce i big data e l'amministrazione di più data center.