Se stai per fare un’intervista tecnologica, probabilmente ti chiederanno una domanda di sfida come implementare un algoritmo per determinare se una stringa ha tutti caratteri unici. Che cosa succede se non puoi usare una struttura dati aggiuntiva, secondo il Cracking the coding Interview, 6th Edition pp.192.
Dovresti fare la prima domanda di risposta usando una stringa ASCII o Unicode. ASCII sta per American Standard Code for Information Interchange. Usa numeri per rappresentare il testo. Le cifre (1,2,3, ecc.), le lettere (a, b, c, ecc.) e i simboli (!) sono chiamati caratteri. Ricordate che, ASCII è sempre avere caratteri più semplici e il byte inferiore di 8 bit poiché rappresenta 128 caratteri per diminuire la dimensione della memoria. L’ASCII ne ha 256, che sarebbe il caso di estendere. Originariamente i suoi codici di carattere erano lunghi 7 bit, ma poi è stato esteso per avere una lunghezza di bit di 8. Originale = 128 caratteri, esteso = 256. Se no, allora usando Unicode per aumentare la dimensione della memoria.
Unicode rappresenta la maggior parte delle lingue scritte nel mondo. ASCII ha il suo equivalente in Unicode. La differenza tra ASCII e Unicode è che ASCII rappresenta lettere minuscole (a-z), lettere maiuscole (A-Z), cifre (0-9) e simboli come i segni di punteggiatura mentre Unicode rappresenta lettere inglesi, arabe, greche ecc. simboli matematici, scritture storiche, emoji che coprono una vasta gamma di caratteri rispetto ad ASCII.
.