Dalam sains komputer, analisis leksikal merupakan proses menukarkan urutan aksara (seperti dalam program komputer atau laman web) ke dalam urutan token (rentetan dengan yang ditugaskan dan makna yang dikenal pasti). Satu program yang menjalankan analisis leksikal boleh disebut sebagai lexer, tokenizer,[1] atau pengimbas, walaupun pengimbas juga merupakan istilah untuk tahap pertama lexer. Lekser biasanya digabungkan dengan parser, yang bersama-sama menganalisis sintaks bahasa pengaturcaraan, laman web, dan sebagainya.

Rujukan sunting

  1. ^ "Anatomy of a Compiler and The Tokenizer". www.cs.man.ac.uk.

Pautan luar sunting