Diferencia entre ASCII y Unicode

author
1 minute, 19 seconds Read

Si vas a tener una entrevista tecnológica, probablemente te hagan una pregunta de desafío como implementar un algoritmo para determinar si una cadena tiene todos los caracteres únicos. Lo que si no puedes es utilizar una estructura de datos adicional, según el libro Cracking the coding Interview, 6th Edition pp.192.

Deberías hacer la primera pregunta de respuesta al tiempo utilizando una cadena ASCII o Unicode. ASCII significa American Standard Code for Information Interchange. Utiliza números para representar el texto. Los dígitos (1,2,3, etc.), las letras (a, b, c, etc.) y los símbolos (!) se llaman caracteres. Recuerde que, ASCII es siempre tienen caracteres más simples y menor byte de 8 bits, ya que representa 128 caracteres para disminuir el tamaño de almacenamiento. ASCII tiene 256 este sería el caso en extendido. Originalmente sus códigos de caracteres eran 7 bits de longitud, pero luego se extendió a tener una longitud de bits de 8. Original = 128 caracteres, extendido = 256. Si no es así, entonces el uso de Unicode para aumentar el tamaño de almacenamiento.

Unicode representa la mayoría de los idiomas escritos en el mundo. ASCII tiene su equivalente en Unicode. La diferencia entre ASCII y Unicode es que ASCII representa las letras minúsculas (a-z), las letras mayúsculas (A-Z), los dígitos (0-9) y los símbolos como los signos de puntuación, mientras que Unicode representa las letras del inglés, el árabe, el griego, etc., los símbolos matemáticos, las escrituras históricas y los emoji, que abarcan una gama más amplia de caracteres que ASCII.

Similar Posts

Deja una respuesta

Tu dirección de correo electrónico no será publicada.