Lilapuce
 

supports (mercredi 25 mars 2015)

Bits, octets et multiples

Le codage de l’information est essentiel en l’informatique. Sans ce processus, il serait bien difficile d’établir la relation entre l’humain et l’ordinateur, telle que nous la connaissons depuis les débuts de l’informatique...

Pour illustrer, de façon plus générale, ce que signifie le terme « codage de l’information », on peut évoquer l’exemple du morse, en usage bien avant l’invention de l’informatique. A partir uniquement d’un signal pouvant prendre deux états possibles - un court et un long- il est possible, grâce au morse, de composer toutes les lettres de l’alphabet.

Sur l’ordinateur, ou tout autre machine programmable reposant sur des composants électroniques, le signal ne peut également prendre que deux états possibles (d’où le terme de « binaire »). Pour simplifier, considérons que l’alternative consiste à ce que codage se résume entre l’alternative : « soit le courant passe, soit il ne passe pas ».

Chacun de ces deux états est associé à une valeur numérique : 1 et 0.

L’ordinateur étant capable de stocker l’information en mémoire, il est donc possible d’effectuer des calculs à partir de valeurs numériques enregistrées. Des suites d’instructions, sont ainsi traitées par l’unité de calcul (processeur), par l’intermédiaire de programmes.

Pour réaliser les calculs, l’ordinateur ne pourra pas employer le système décimal, tel que nous l’avons tous appris à l’école. Il ne pourra utiliser que le système binaire lequel, comme nous l’avons vu, ne peut prendre que l’une des deux valeurs suivantes : 0 et 1.

Une vision particulièrement répandue chez les détracteurs (quelque peu primaires) des technologies numériques stipule que, sous prétexte que l’ordinateur n’est capable de traiter que des zéros et des uns (ce qui est exact), les concepteurs et les utilisateurs de ces technologies seraient irrémédiablement conduits à ne considérer le monde que sous cet angle binaire. Cette affirmation est aussi stupide que celle consisterait, par exemple, à affirmer que ce qui constitue la culture d’un peuple serait en rapport avec le nombre de caractères qui compose l’alphabet ou le nombre d’idéogrammes de la langue avec laquelle il s’exprime.

Rien n’empêche, à partir d’un système binaire, d’effectuer les calculs les plus complexes, tels que ceux traités par les mathématiciens. De la même façon, rien n’empêche d’énoncer, en morse, un concept philosophique particulièrement ardu, à l’aide d’un bout de bois frappé sur une pierre. Rappelons-le il ne s’agit, dans un cas comme dans l’autre, que d’un mode de codage de l’information.

L’expression anglaise pour « chiffre binaire » est Binary digit, plus connue par son abréviation : bit.

Voici un tableau d’équivalence entre numérations base 10 et base 2 :

Base 10 Base 2
0 0000
1 0001
2 0010
3 0011
4 0100
5 0101
6 0110
7 0111
8 1000
9 1001
10 1010
11 1011
12 1100
13 1101
14 1110
15 1111

- Un bit ne peut donc représenter que 2 états possibles : 0 ou 1.

- Deux bits, pour 4 états possible (2 multiplié par 2 ; ou 22) ; de 0 à 3.

- Avec trois bits, 8 états possibles (23) : de 0 à 7. Etc.

Dans le tableau ci-dessus, qui indique l’équivalence en bits des valeurs décimales de 0 à 15 (16 états possibles), il est nécessaire d’utiliser un ensemble de 4 bits (24), autrement appelé quartet.

De même octet est le nom donné pour désigner un ensemble de 8 bits ; c’est l’unité de mesure informatique employée pour indiquer la quantité de données. Certaines autres caractéristiques (le débits des réseaux, le mode de traitement des processeurs, etc.) sont désignées en bits. L’expression anglaise pour désigner « octet » est Byte, à ne pas confondre avec bit.

Un octet - 28 - représente donc 256 états possibles ; ce qui permet, par exemple de stocker en mémoire une table de caractères, avec tous les chiffres (de 0 à 9), toutes les lettres de l’alphabet latin (majuscule et minuscule), ainsi que les signes de ponctuation et d’autres caractères tels que l’espace ou le retour chariot.

Autre exemple : une photo en noir et banc, dont chaque pixel peut prendre l’une des 256 valeurs de niveaux de gris.

Passons désormais aux multiples de l’octet. Vous retrouvez une logique qui devrait vous sembler familière :

- le kilooctet ; 1 Ko = 1 000 octets

- le mégaoctet ; 1 Mo = 1 000 Ko

- le gigaoctet ; 1 Go = 1 000 Mo

- le téraoctet ; 1 To = 1 000 Go

Il existe d’autres unités de mesure (multiples du To), mais elles n’ont pas cours, pour l’instant, sur les ordinateurs ordinaires.

Il faut signaler qu’il y a encore quelques années, pour des raisons relativement anecdotiques, il était d’usage de considérer que 1 Ko était égal à 1 024 octets (et ainsi de suite pour les autres multiples). Cette antériorité explique une certaine confusion : les deux notations étant encore couramment utilisées de façon parallèle.

Voici quelques exemples de supports de stockage avec leur capacité :

- CD-Rom : 700 Mo

- DVD : 4,7 Go

- Clé USB entrée de gamme : 16 à 32 Go

- Disque dur d’un ordinateur portable entrée de gamme (Windows) : 500 Go à 1 To