Casa Banche dati Cos'è il file system distribuito hadoop (hdfs)? - definizione da techopedia

Cos'è il file system distribuito hadoop (hdfs)? - definizione da techopedia

Sommario:

Anonim

Definizione - Cosa significa Hadoop Distributed File System (HDFS)?

Hadoop Distributed File System (HDFS) è un file system distribuito che gira su hardware standard o di fascia bassa. Sviluppato da Apache Hadoop, HDFS funziona come un file system distribuito standard ma fornisce un throughput e un accesso ai dati migliori tramite l'algoritmo MapReduce, un'alta tolleranza agli errori e il supporto nativo di grandi set di dati.

Techopedia spiega Hadoop Distributed File System (HDFS)

L'HDFS archivia una grande quantità di dati posizionati su più macchine, in genere in centinaia e migliaia di nodi connessi simultaneamente e fornisce affidabilità dei dati replicando ciascuna istanza di dati come tre copie diverse, due in un gruppo e una nell'altra. Queste copie possono essere sostituite in caso di errore.

L'architettura HDFS è composta da cluster, ognuno dei quali è accessibile tramite un singolo strumento software NameNode installato su una macchina separata per monitorare e gestire il file system del cluster e il meccanismo di accesso dell'utente. Le altre macchine installano un'istanza di DataNode per gestire l'archiviazione del cluster.

Poiché HDFS è scritto in Java, ha il supporto nativo per le API (Application Programming Interface) per l'integrazione e l'accessibilità delle applicazioni. È inoltre possibile accedervi tramite browser Web standard.

Cos'è il file system distribuito hadoop (hdfs)? - definizione da techopedia