Différence entre ASCII et Unicode

author
1 minute, 22 seconds Read

Si vous allez avoir une interview technologique, ils vous demandent probablement une question de défi comme mettre en œuvre un algorithme pour déterminer si une chaîne a tous les caractères uniques. Que faire si vous ne pouvez pas utiliser une structure de données supplémentaire, selon le Cracking the coding Interview, 6ème édition pp.192.

Vous devriez poser la première question réponse météo en utilisant une chaîne ASCII ou Unicode. ASCII est l’abréviation de American Standard Code for Information Interchange. Il utilise des chiffres pour représenter le texte. Les chiffres (1,2,3, etc.), les lettres (a, b, c, etc.) et les symboles ( !) sont appelés des caractères. Rappelez-vous que l’ASCII a toujours des caractères plus simples et un octet inférieur de 8 bits, car il représente 128 caractères pour réduire la taille de stockage. L’ASCII en compte 256, ce qui serait le cas en étendu. À l’origine, ses codes de caractères comportaient 7 bits, mais ils ont ensuite été étendus pour avoir une longueur de 8 bits. Original = 128 caractères, étendu = 256. Sinon, il faut utiliser Unicode pour augmenter la taille de stockage.

Unicode représente la plupart des langues écrites dans le monde. L’ASCII a son équivalent dans Unicode. La différence entre l’ASCII et l’Unicode est que l’ASCII représente les lettres minuscules (a-z), les lettres majuscules (A-Z), les chiffres (0-9) et les symboles tels que les signes de ponctuation alors que l’Unicode représente les lettres de l’anglais, de l’arabe, du grec etc. les symboles mathématiques, les écritures historiques, les emoji couvrant un large éventail de caractères que l’ASCII.

Similar Posts

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.