Unterschied zwischen ASCII und Unicode

author
1 minute, 6 seconds Read

Wenn Sie ein technologisches Vorstellungsgespräch führen, wird man Ihnen wahrscheinlich eine schwierige Frage stellen, wie z.B. einen Algorithmus zu implementieren, um festzustellen, ob eine Zeichenkette alle eindeutigen Zeichen enthält. Was ist, wenn Sie keine zusätzliche Datenstruktur verwenden können, laut Cracking the coding Interview, 6th Edition pp.192.

Sie sollten die erste Frage mit einer ASCII- oder Unicode-Zeichenkette beantworten. ASCII steht für American Standard Code for Information Interchange. Er verwendet Zahlen zur Darstellung von Text. Ziffern (1,2,3, usw.), Buchstaben (a, b, c, usw.) und Symbole (!) werden als Zeichen bezeichnet. Denken Sie daran, dass ASCII immer einfachere Zeichen und untere 8-Bit-Bytes hat, da es 128 Zeichen darstellt, um die Speichergröße zu verringern. ASCII hat 256, was in der erweiterten Version der Fall wäre. Ursprünglich waren die Zeichencodes 7 Bits lang, aber dann wurde es auf eine Bitlänge von 8 erweitert. Original = 128 Zeichen, erweitert = 256. Wenn nicht, dann mit Unicode, um die Speichergröße zu erhöhen.

Unicode repräsentiert die meisten geschriebenen Sprachen der Welt. ASCII hat seine Entsprechung in Unicode. Der Unterschied zwischen ASCII und Unicode besteht darin, dass ASCII Kleinbuchstaben (a-z), Großbuchstaben (A-Z), Ziffern (0-9) und Symbole wie Satzzeichen darstellt, während Unicode Buchstaben aus dem Englischen, Arabischen, Griechischen usw., mathematische Symbole, historische Schriften und Emoji darstellt, die eine größere Bandbreite an Zeichen abdecken als ASCII.

Similar Posts

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.