Casa Sviluppo Comprensione di bit, byte e loro multipli

Comprensione di bit, byte e loro multipli

Sommario:

Anonim

La terminologia che accompagna la comprensione dei concetti più elementari della tecnologia informatica può essere un vero e proprio colpo di rottura per molti neofiti tecnologici. Un'area che attira frequentemente le persone sono quei termini che vengono utilizzati per misurare i dati del computer. Sì, stiamo parlando di bit, byte e tutti i loro molti multipli. Questo è un concetto importante per chiunque lavori in profondità con un computer, poiché queste misurazioni vengono utilizzate per descrivere la memoria, la potenza di calcolo e le velocità di trasferimento dei dati.

Ecco una semplice spiegazione sul significato di queste misurazioni.

Cos'è un po '?

Qualsiasi spiegazione di base sull'informatica o sulle telecomunicazioni deve iniziare con un bit o una cifra binaria. Questa è la più piccola quantità di dati digitali che possono essere trasmessi tramite una connessione di rete. È il più piccolo blocco di costruzione di ogni e-mail e messaggio di testo che ricevi. Un bit è una singola unità di informazioni digitali e rappresenta uno zero o uno. L'uso di bit per codificare i dati risale ai vecchi sistemi di schede perforate che consentivano ai primi computer meccanici di eseguire calcoli. Le informazioni binarie che una volta erano memorizzate nella posizione meccanica della leva o dell'ingranaggio di un computer sono ora rappresentate da un impulso di tensione o corrente elettrica. Benvenuti nell'era digitale! (Scopri di più sui vecchi tempi in The Pioneers of Computer Programming.)

Comprensione di bit, byte e loro multipli