Sommario:
Definizione - Cosa significa Range?
Nella programmazione per computer, intervallo si riferisce a possibili valori variabili o all'intervallo che include i limiti superiore e inferiore di un array.
Nelle statistiche, intervallo si riferisce all'intervallo tra i punti di dati. La forza e il significato di una statistica sono correlati alla dimensione del campione, indipendentemente dal fatto che l'intervallo sia breve o lungo.
Techopedia spiega Range
I valori possono verificarsi tra i valori più piccoli e più grandi in un insieme di valori o punti dati osservati. Dato un insieme di valori o punti dati, l'intervallo viene determinato sottraendo il valore più piccolo dal valore più grande.
In un test tipico, c'è un intervallo tra 0 e 100. L'intervallo dei valori di test possibili è il valore più grande (100) meno il valore più piccolo (0): 100–0 = 100. Pertanto, l'intervallo di valori possibili per un esame tipico è 100.
Tuttavia, in realtà, un insegnante può ricevere risultati del test come i seguenti: 60, 72, 75, 77, 81, 85, 85, 86 e 90. Questi punteggi sono i valori osservati. L'intervallo è il punteggio del test più grande (90) meno il punteggio del test più piccolo (60): 90–60 = 30. Pertanto, l'intervallo dei valori effettivi (voti degli esami) è 30.