Sommario:
Definizione - Cosa significa cifra binaria (bit)?
Una cifra binaria, o bit, è la più piccola unità di informazione in un computer. Viene utilizzato per la memorizzazione di informazioni e ha un valore true / false o on / off. Un singolo bit ha un valore di 0 o 1, generalmente utilizzato per archiviare dati e implementare istruzioni in gruppi di byte. Un computer è spesso classificato in base al numero di bit che può elaborare contemporaneamente o al numero di bit in un indirizzo di memoria. Molti sistemi utilizzano quattro byte a otto bit per formare una parola a 32 bit.
Il valore di un bit viene in genere memorizzato sopra o sotto un livello assegnato di una carica elettrica all'interno di un condensatore all'interno di un modulo di memoria. Per i dispositivi che usano la logica positiva, il valore 1 (valore reale o alto) è una tensione positiva rispetto alla massa elettrica e il valore 0 (valore falso o basso) è una tensione 0.
Techopedia spiega la cifra binaria (bit)
I valori 0 e 1 possono anche essere dedotti come valori logici, come sì / no o vero / falso, o stati di attivazione, come on / off.
I due valori possono rappresentare due stati stabili, come ad esempio:
- Tensione / corrente: due livelli distinti consentiti da un circuito
- Posizione elettrica: due posizioni in cui On = 1 e Off = 0
- Flip-flop: utilizzato per memorizzare informazioni che cambiano continuamente tra 0 e 1
La tecnologia di lettura e memorizzazione di solo due stati viene definita tecnologia binaria. Il sistema numerico che utilizza i due stati è il sistema numerico binario. Il sistema di numeri binari esegue tutti i conteggi e i calcoli in un computer. Tutti i numeri e le lettere vengono anche cambiati in codice binario prima di essere memorizzati in un computer.
Ad esempio, il conteggio da zero a 10 in binario è simile al seguente: 0, 1, 10, 11, 100, 101, 110, 111, 1000, 1001, 1010
Esiste anche un codice binario per le lettere maiuscole e minuscole:
- A: 01000001 a: 01100001
- B: 01000010 b: 01100010
- C: 01000011 c: 01100011
La memorizzazione di un singolo carattere richiede otto bit. Un byte o otto bit possono produrre 256 combinazioni distintive di numeri, lettere, simboli e caratteri. Sono necessari quattro byte a otto bit per formare una parola a 32 bit. La lunghezza di un numero binario viene talvolta definita lunghezza bit. Molti sistemi utilizzano lunghezze a 32 bit per formare una parola o lunghezze a 16 bit per formare una mezza parola.
Esistono molte unità di informazioni che contengono multipli di bit. Questi includono:
- Byte = 8 bit
- Kilobit = 1.000 bit
- Megabit = 1 milione di bit
- Gigabit = 1 miliardo di bit
Le velocità di connessione a Internet per il download e il caricamento sono spesso indicate come velocità di trasferimento dati o velocità in bit. La velocità in bit viene generalmente misurata in bit al secondo (bps). Le velocità di trasferimento dei dati possono anche essere misurate in byte al secondo (Bps).