Sommario:
- Definizione - Cosa significa Hadoop Distributed File System (HDFS)?
- Techopedia spiega Hadoop Distributed File System (HDFS)
Definizione - Cosa significa Hadoop Distributed File System (HDFS)?
Hadoop Distributed File System (HDFS) è un file system distribuito che gira su hardware standard o di fascia bassa. Sviluppato da Apache Hadoop, HDFS funziona come un file system distribuito standard ma fornisce un throughput e un accesso ai dati migliori tramite l'algoritmo MapReduce, un'alta tolleranza agli errori e il supporto nativo di grandi set di dati.
Techopedia spiega Hadoop Distributed File System (HDFS)
L'HDFS archivia una grande quantità di dati posizionati su più macchine, in genere in centinaia e migliaia di nodi connessi simultaneamente e fornisce affidabilità dei dati replicando ciascuna istanza di dati come tre copie diverse, due in un gruppo e una nell'altra. Queste copie possono essere sostituite in caso di errore.
L'architettura HDFS è composta da cluster, ognuno dei quali è accessibile tramite un singolo strumento software NameNode installato su una macchina separata per monitorare e gestire il file system del cluster e il meccanismo di accesso dell'utente. Le altre macchine installano un'istanza di DataNode per gestire l'archiviazione del cluster.
Poiché HDFS è scritto in Java, ha il supporto nativo per le API (Application Programming Interface) per l'integrazione e l'accessibilità delle applicazioni. È inoltre possibile accedervi tramite browser Web standard.
