Sommario:
Definizione - Cosa significa Hadoop Ecosystem?
L'ecosistema Hadoop si riferisce ai vari componenti della libreria software Apache Hadoop, nonché agli accessori e agli strumenti forniti da Apache Software Foundation per questi tipi di progetti software e ai modi in cui lavorano insieme.
Hadoop è un framework basato su Java che è estremamente popolare per la gestione e l'analisi di grandi serie di dati.
Techopedia spiega l'ecosistema Hadoop
Sia il pacchetto Hadoop principale che i suoi accessori sono per lo più progetti open source concessi in licenza da Apache. L'idea di un ecosistema Hadoop prevede l'uso di diverse parti del set Hadoop di base come MapReduce, un framework per la gestione di grandi quantità di dati, e l'Hadoop Distributed File System (HDFS), un sofisticato sistema di gestione dei file. C'è anche YARN, un gestore di risorse Hadoop.
Oltre a questi elementi chiave di Hadoop, Apache ha fornito anche altri tipi di accessori o strumenti complementari per gli sviluppatori. Questi includono Apache Hive, uno strumento di analisi dei dati; Apache Spark, un motore generale per l'elaborazione di big data; Apache Pig, un linguaggio di flusso di dati; HBase, uno strumento di database; e anche Ambarl, che può essere considerato un gestore dell'ecosistema Hadoop, in quanto aiuta a gestire insieme l'uso di queste varie risorse Apache. Con Hadoop che diventa lo standard di fatto per la raccolta dei dati e diventa onnipresente in molte organizzazioni, i manager e i leader dello sviluppo stanno imparando tutto sull'ecosistema Hadoop e su quali tipi di cose sono coinvolti in una configurazione generale di Hadoop.
