Encodage
Fondamental : Pourquoi a-t-on besoin d’encodage ?
Un ordinateur ne comprend que du binaire : des suites de 0 et de 1.
Exemple : la lettre A n’existe pas directement pour l’ordinateur.
Elle doit être traduite en un code numérique, puis en binaire.
L’encodage est donc la règle de correspondance entre :
un caractère (ex :
A,é,😊)et une suite de bits (ex :
01000001pourAen ASCII).
Exemple :
En ASCII (ancien système, limité à l’anglais) :
A= 65 en décimal =01000001en binaire
En UTF-8 :
A→ reste01000001(1 octet)é→ devient11000011 10101001(2 octets)😊→ devient11110000 10011111 10011000 10001010(4 octets)
Ainsi, UTF-8 adapte la longueur en fonction du caractère :
1 octet pour les lettres simples (compatibilité ASCII),
jusqu’à 4 octets pour les symboles complexes (comme les emojis).
Remarque : En conclusion
L’ordinateur ne manipule que des 0 et des 1.
L’encodage (UTF-8) est la traduction entre le langage humain (caractères) et le langage machine (bits).
Sans encodage standardisé, un
éécrit dans un fichier pourrait être affiché commeéou même?sur un autre système.