Encodage
Fondamental : Pourquoi a-t-on besoin d’encodage ?
Un ordinateur ne comprend que du binaire : des suites de 0
et de 1
.
Exemple : la lettre A n’existe pas directement pour l’ordinateur.
Elle doit être traduite en un code numérique, puis en binaire.
L’encodage est donc la règle de correspondance entre :
un caractère (ex :
A
,é
,😊
)et une suite de bits (ex :
01000001
pourA
en ASCII).
Exemple :
En ASCII (ancien système, limité à l’anglais) :
A
= 65 en décimal =01000001
en binaire
En UTF-8 :
A
→ reste01000001
(1 octet)é
→ devient11000011 10101001
(2 octets)😊
→ devient11110000 10011111 10011000 10001010
(4 octets)
Ainsi, UTF-8 adapte la longueur en fonction du caractère :
1 octet pour les lettres simples (compatibilité ASCII),
jusqu’à 4 octets pour les symboles complexes (comme les emojis).
Remarque : En conclusion
L’ordinateur ne manipule que des 0 et des 1.
L’encodage (UTF-8) est la traduction entre le langage humain (caractères) et le langage machine (bits).
Sans encodage standardisé, un
é
écrit dans un fichier pourrait être affiché commeé
ou même?
sur un autre système.