コード例 #1
0
    def tokenize(self, line):
        """
        Create tokens from string.

        @param line: string to scan
        """
        self.rv = []
        GenericScanner.tokenize(self, line)
        return self.rv
コード例 #2
0
 def tokenize(self, input):
     self.tokens = []
     lines = input.split("\n")
     for line in lines:
         #remove inline comments
         line = line.split("//")[0]
         GenericScanner.tokenize(self, line)
         self.lineno += 1
         t = Token(type='NEWLINE', lineno=self.lineno)
         self.tokens.append(t)
     return self.tokens
コード例 #3
0
ファイル: atandtscan.py プロジェクト: killbug2004/adder
 def tokenize(self, input):
         self.tokens = []
         lines=input.split("\n")
         for line in lines:
                 #remove inline comments
                 line=line.split("//")[0]
                 GenericScanner.tokenize(self, line)
                 self.lineno+=1
                 t=Token(type='NEWLINE',lineno=self.lineno)
                 self.tokens.append(t)
         return self.tokens
コード例 #4
0
ファイル: functions.py プロジェクト: saurabhd14/tinyos-1.x
 def tokenize(self, input):
     self.rv = []
     GenericScanner.tokenize(self, input)
     return self.rv
コード例 #5
0
 def tokenize(self, input_):
     self.rv = []
     GenericScanner.tokenize(self, input_)
     return self.rv
コード例 #6
0
 def tokenize(self, input):
     self.tokens = []
     GenericScanner.tokenize(self, input)
     return self.tokens
コード例 #7
0
ファイル: FlPreProcessor.py プロジェクト: pyfltk/pyfltk
	def	tokenize(self, input, outputFile):
		self.rv = []
		self.outputFile = outputFile
		GenericScanner.tokenize(self, input)
		return self.rv
コード例 #8
0
ファイル: CC2Scanner.py プロジェクト: miaozhendaoren/VM-2CB
 def tokenize(self, input):
     self.rv = []
     GenericScanner.tokenize(self, input)
     self.line_count=0
     return self.rv