Sommario:
Definizione - Cosa significa Gigabit (Gb)?
Gigabit (Gb) è un'unità di misurazione dei dati applicata alle velocità di trasferimento dei dati digitali (DTR) e alle velocità di download. Un Gb equivale a un miliardo (1.000.000.000 o 10 9 ) bit.
L'International System of Units (SI) definisce il prefisso giga come un moltiplicatore 10 9 per l'archiviazione dei dati o un miliardo (1.000.000.000) di bit. Il prefisso giga binario rappresenta 1.073.741.824 (1024 3 o 2 30 ) bit. Il differenziale SI e binario è di circa 4, 86 percento.
Techopedia spiega Gigabit (Gb)
Le unità di elaborazione centrale (CPU) sono costruite con istruzioni per il controllo dei dati per i bit, l'unità di misurazione dei dati più piccola. I bit sono cifre binarie magnetizzate e polarizzate che rappresentano i dati digitali memorizzati nella memoria ad accesso casuale (RAM) o nella memoria di sola lettura (ROM). Un bit viene misurato in secondi e caratterizzato da valori 0 (on) o 1 (off) ad alta tensione.
La maggior parte delle reti applica la versione SI di Gb quando si misurano le velocità modem, FireWire o Universal Serial Bus (USB), mentre la versione binaria di Gb fa raramente riferimento alla velocità DTR e misura la RAM e il cavo in fibra ottica. Gruppi di software e sistemi di archiviazione spesso combinano unità binarie e SI Gb in base ai requisiti.
Nel 2000, l'Institute of Electrical and Electronics Engineers (IEEE) ha incorporato l'approvazione formale della Commissione elettrotecnica internazionale (IEC) dei prefissi metrici SI (ad esempio, MB come un milione di byte e KB come mille byte). I termini della metrica appena aggiunti includono:
- Kibibyte (KiB) equivale a 1.024 byte.
- Mebibyte (MiB) equivale a 1.048.576 byte.
- Gibibyte (GiB) equivale a 1.073.741.824 byte.