Synonyme für Tokenizer

Dieses Synonym teilen:


Andere Bedeutungen


Kategorie

Computer




Wikipedia Artikel zu Tokenizer

Ein Tokenizer (auch lexikalischer Scanner, kurz Lexer) ist ein Computerprogramm zur Zerlegung von Plain text (zum Beispiel Quellcode) in Folgen von logisch zusammengehörigen Einheiten, so genannte Token (englisch tokens). Als solcher ist er oft Teil eines Compilers.