Encodage

FondamentalPourquoi a-t-on besoin d’encodage ?

Un ordinateur ne comprend que du binaire : des suites de 0 et de 1.

  • Exemple : la lettre A n’existe pas directement pour l’ordinateur.

  • Elle doit être traduite en un code numérique, puis en binaire.

L’encodage est donc la règle de correspondance entre :

  • un caractère (ex : A, é, 😊)

  • et une suite de bits (ex : 01000001 pour A en ASCII).

Exemple

  • En ASCII (ancien système, limité à l’anglais) :

    • A = 65 en décimal = 01000001 en binaire

  • En UTF-8 :

    • A → reste 01000001 (1 octet)

    • é → devient 11000011 10101001 (2 octets)

    • 😊 → devient 11110000 10011111 10011000 10001010 (4 octets)

Ainsi, UTF-8 adapte la longueur en fonction du caractère :

  • 1 octet pour les lettres simples (compatibilité ASCII),

  • jusqu’à 4 octets pour les symboles complexes (comme les emojis).

RemarqueEn conclusion

  • L’ordinateur ne manipule que des 0 et des 1.

  • L’encodage (UTF-8) est la traduction entre le langage humain (caractères) et le langage machine (bits).

  • Sans encodage standardisé, un é écrit dans un fichier pourrait être affiché comme é ou même ? sur un autre système.