Sommario:
Definizione - Cosa significa Hadoop Common?
Hadoop Common si riferisce alla raccolta di utilità e librerie comuni che supportano altri moduli Hadoop. È una parte o un modulo essenziale di Apache Hadoop Framework, insieme a Hadoop Distributed File System (HDFS), Hadoop YARN e Hadoop MapReduce. Come tutti gli altri moduli, Hadoop Common presuppone che i guasti hardware siano comuni e che questi dovrebbero essere gestiti automaticamente nel software da Hadoop Framework.
Hadoop Common è anche noto come Hadoop Core.
Techopedia spiega Hadoop Common
Il pacchetto Hadoop Common è considerato la base / core del framework in quanto fornisce servizi essenziali e processi di base come l'astrazione del sistema operativo sottostante e del suo file system. Hadoop Common contiene anche i file e gli script JAR (Java Archive) necessari necessari per avviare Hadoop. Il pacchetto Hadoop Common fornisce anche il codice sorgente e la documentazione, oltre a una sezione di contributo che include diversi progetti della comunità Hadoop.