Differenza tra mega e giga

Hai sentito parlare di mega o di giga ma non hai idea di cosa voglia dire? Eccoti allora spiegata la differenza tra mega e giga.

Indice

Differenza tra mega e giga

I termini mega e giga sono dei prefissi usati nel sistema internazionale di unità di misura e, da soli, non hanno alcun significato.

Tuttavia, al giorno d’oggi, i termini mega e giga vengono impropriamente usati per riferirsi ad alcune delle unità di misura informatiche più diffuse, ovvero:

  • o al megabyte (si pronuncia megabàit) o al megabit, per quanto riguarda il termine mega;
  • o al gigabyte (si pronuncia gigabàit) o al gigabit, per quanto riguarda il termine giga.

Una volta precisato questo è possibile chiarire meglio qual è la differenza tra mega e giga.

Cosa significa mega?

Il termine mega è un prefisso dell’SI (si pronuncia esse i) che esprime il fattore 10^6, ovvero 1.000.000, e il suo simbolo è la lettera m maiuscola, cioè M.

Con il termine mega, a seconda del contesto in cui ci si trova, in genere ci si riferisce:

  • o al megabyte (scritto tutto in minuscolo, invariato al plurale), il cui corretto simbolo è MB (con la lettera m e la lettera b entrambe in maiuscolo), che non equivale altro che a un milione di byte (si pronuncia bàit). Nel mondo dell’informatica, il megabyte viene usato soprattutto per indicare lo spazio richiesto o lo spazio a disposizione per ospitare uno o più determinati file. Ad esempio, se ti viene detto che un file pesa tre mega vorrà dire che quel file richiederà – o meglio occuperà – 3 MB (cioè 3 megabyte) di spazio;
  • o al megabit (scritto tutto in minuscolo, invariato al plurale), il cui corretto simbolo è Mb (con la lettera m in maiuscolo e la lettera b in minuscolo), che non equivale altro che a un milione di bit. Nel mondo dell’informatica, il megabit viene usato soprattutto per indicare la velocità massima di trasmissione dei dati su una comune rete informatica. In questi casi si parla quindi di megabit per secondo, il cui corretto simbolo è Mbit/s (talvolta però indicato anche come Mbps o Mb/s), e non corrisponde altro che a 1.000.000 di bit al secondo. Ad esempio, se a casa hai una connessione in fibra ottica da 100 mega vorrà dire che la tua connessione ad Internet avrà una velocità in download di, al massimo, 100 Mbit/s.

Cosa significa giga?

Il termine giga è un prefisso dell’SI (si pronuncia esse i) che esprime il fattore 10^9, ovvero 1.000.000.000, e il suo simbolo è la lettera g maiuscola, cioè G.

Con il termine giga, a seconda del contesto in cui ci si trova, in genere ci si riferisce:

  • o al gigabyte (scritto tutto in minuscolo, invariato al plurale), il cui corretto simbolo è GB (con la lettera g e la lettera b entrambe in maiuscolo), che non equivale altro che a un miliardo di byte (si pronuncia bàit). Nel mondo dell’informatica, il gigabyte viene usato soprattutto per indicare lo spazio richiesto o lo spazio a disposizione per ospitare uno o più determinati file. Ad esempio, se ti viene detto che per navigare hai a disposizione cinquanta giga al mese vorrà dire che in un mese potrai scaricare al massimo 50 GB (cioè 50 gigabyte) di dati;
  • o al gigabit (scritto tutto in minuscolo, invariato al plurale), il cui corretto simbolo è Gb (con la lettera g in maiuscolo e la lettera b in minuscolo), che non equivale altro che a un miliardo di bit. Nel mondo dell’informatica, il gigabit viene usato soprattutto per indicare la velocità massima di trasmissione dei dati su una comune rete informatica. In questi casi si parla quindi di gigabit per secondo, il cui corretto simbolo è Gbit/s (talvolta però indicato anche come Gbps o Gb/s), e non corrisponde altro che a 1.000.000.000 di bit al secondo. Ad esempio, se a casa hai una connessione in fibra ottica da 1 giga vorrà dire che la tua connessione ad Internet avrà una velocità in download di, al massimo, 1 Gbit/s.

Conclusioni

Prima di concludere questo articolo bisogna però precisare un’altra cosa. Considerare il valore 1.000 per convertire i giga in mega o i mega in giga non è un errore, sebbene ancora molti pensino che 1 gigabyte equivalga a 1.024 megabyte o che 1 gigabit equivalga a 1.024 megabit.

Questo era vero fino al dicembre del 1998, ovvero fino a quando la IEC non ha stabilito che anche l’informatica dovesse seguire la convenzione dell’SI.

In poche parole, tutti i prefissi dell’SI ora devono essere considerati come potenze di 10 e non più come potenze di 2. Pertanto:

  • 1 gigabit = 1.000 megabit = 1.000.000.000 di bit;
  • 1 gigabyte = 1.000 megabyte = 1.000.000.000 di byte.

La IEC ha inoltre attribuito tutta una serie di nuovi prefissi ai multipli del bit e del byte che vengono indicati attraverso le potenze di 2, ad esempio mebibit, mebibyte, gibibit e gibibyte.

Questo sia per evitare confusione, sia, poiché, i vari produttori di dispositivi di archiviazione preferiscono ancora utilizzare i corretti, ma ambigui, multipli decimali in maniera tale da far figurare quantità maggiori di archiviazione, proprio perché un determinato dispositivo di archiviazione – come una chiavetta USB – con una capacità dichiarata di, ad esempio, 8 GB equivale in realtà all’incirca a 7,45 GiB di capacità effettiva.

Arrivati comunque a questo punto dovresti aver finalmente capito qual è la differenza tra mega e giga.