D:
Come posso imparare a usare Hadoop per analizzare i big data?
UN:Il set di software Apache noto come Hadoop sta diventando una risorsa molto popolare per gestire set di big data. Questo tipo di framework software di gestione dei dati è stato creato per aiutare a aggregare i dati in modi specifici, sulla base di progetti che potrebbero rendere più efficienti alcuni tipi di progetti di dati. Detto questo, Hadoop è solo uno dei molti strumenti per la gestione di insiemi di dati di grandi dimensioni.
Uno dei primi e più basilari modi di conoscere l'analisi dei big data con Hadoop è comprendere alcuni dei componenti di livello superiore di Hadoop e cosa fa. Questi includono una "piattaforma di gestione delle risorse" di Hadoop YARN che può essere applicata a determinati tipi di configurazioni di rete, nonché un set di funzioni Hadoop MapReduce che si applicano ai set di big data. C'è anche un file system distribuito Hadoop (HDFS), che aiuta a archiviare i dati su sistemi distribuiti in modo che possano essere indicizzati o recuperati in modo rapido ed efficiente.
Oltre a ciò, coloro che desiderano acquisire maggiore familiarità con Hadoop possono consultare le singole risorse pubblicate per i professionisti che spiegano il software a un livello comprensibile. Questo esempio di Chris Stucchio in un blog personale fornisce un eccellente insieme di punti su Hadoop e la scala dei dati. Uno degli aspetti fondamentali è che Hadoop può essere usato più comunemente di quanto sia necessario e potrebbe non essere la soluzione migliore per un singolo progetto. La revisione di questo tipo di risorse aiuterà i professionisti a familiarizzare con i dettagli dell'uso di Hadoop in qualsiasi scenario. Stucchio fornisce anche metafore per mettere in relazione le funzioni di Hadoop con compiti fisici specifici. Qui, l'esempio sta contando il numero di libri in una libreria, mentre una funzione di Hadoop potrebbe suddividere quella libreria in sezioni, fornendo conteggi individuali che si fondono in un risultato di dati aggregati.
Un modo più approfondito che i professionisti possono imparare di più su Hadoop e sulla sua applicazione ai big data è attraverso risorse e programmi di formazione specifici. Ad esempio, la società di apprendimento online Cloudera, un importante fornitore di sessioni di formazione in remoto, ha una serie di opzioni interessanti sull'uso di Hadoop e tipi simili di gestione dei dati.