コード例 #1
0
 def test_tokenize_slashslash_comment(self):
     tokens = list(strip_js_comments._TokenizeJS("A // foo"))
     self.assertEquals(["A ", "//", " foo"], tokens)
コード例 #2
0
 def test_tokenize_slashslash_comment_then_newline(self):
     tokens = list(strip_js_comments._TokenizeJS("A // foo\nbar"))
     self.assertEquals(["A ", "//", " foo", "\n", "bar"], tokens)
コード例 #3
0
 def test_tokenize_empty(self):
     tokens = list(strip_js_comments._TokenizeJS(""))
     self.assertEquals([], tokens)
コード例 #4
0
 def test_tokenize_nl(self):
     tokens = list(strip_js_comments._TokenizeJS("\n"))
     self.assertEquals(["\n"], tokens)
コード例 #5
0
 def test_tokenize_cstyle_comment_one_line(self):
   tokens = list(strip_js_comments._TokenizeJS('A /* foo */'))
   self.assertEquals(['A ', '/*', ' foo ', '*/'], tokens)
コード例 #6
0
 def test_tokenize_cstyle_comment_multi_line(self):
   tokens = list(strip_js_comments._TokenizeJS('A /* foo\n*bar\n*/'))
   self.assertEquals(['A ', '/*', ' foo', '\n', '*bar', '\n', '*/'], tokens)
コード例 #7
0
 def test_tokenize_slashslash_comment(self):
   tokens = list(strip_js_comments._TokenizeJS('A // foo'))
   self.assertEquals(['A ', '//', ' foo'], tokens)
コード例 #8
0
 def test_tokenize_slashslash_comment(self):
   tokens = list(strip_js_comments._TokenizeJS('A // foo'))
   self.assertEquals(['A ', '//', ' foo'], tokens)
コード例 #9
0
 def test_tokenize_empty(self):
   tokens = list(strip_js_comments._TokenizeJS(''))
   self.assertEquals([], tokens)
コード例 #10
0
 def test_tokenize_nl(self):
   tokens = list(strip_js_comments._TokenizeJS('\n'))
   self.assertEquals(['\n'], tokens)
コード例 #11
0
 def test_tokenize_cstyle_comment_multi_line(self):
   tokens = list(strip_js_comments._TokenizeJS('A /* foo\n*bar\n*/'))
   self.assertEquals(['A ', '/*', ' foo', '\n', '*bar', '\n', '*/'], tokens)
コード例 #12
0
 def test_tokenize_cstyle_comment_one_line(self):
   tokens = list(strip_js_comments._TokenizeJS('A /* foo */'))
   self.assertEquals(['A ', '/*', ' foo ', '*/'], tokens)
コード例 #13
0
 def test_tokenize_slashslash_comment_then_newline(self):
   tokens = list(strip_js_comments._TokenizeJS('A // foo\nbar'))
   self.assertEquals(['A ', '//', ' foo', '\n', 'bar'], tokens)
コード例 #14
0
 def test_tokenize_cstyle_comment_one_line(self):
     tokens = list(strip_js_comments._TokenizeJS("A /* foo */"))
     self.assertEquals(["A ", "/*", " foo ", "*/"], tokens)
コード例 #15
0
 def test_tokenize_slashslash_comment_then_newline(self):
   tokens = list(strip_js_comments._TokenizeJS('A // foo\nbar'))
   self.assertEquals(['A ', '//', ' foo', '\n', 'bar'], tokens)
コード例 #16
0
 def test_tokenize_cstyle_comment_multi_line(self):
     tokens = list(strip_js_comments._TokenizeJS("A /* foo\n*bar\n*/"))
     self.assertEquals(["A ", "/*", " foo", "\n", "*bar", "\n", "*/"], tokens)
コード例 #17
0
 def test_tokenize_nl(self):
   tokens = list(strip_js_comments._TokenizeJS('\n'))
   self.assertEquals(['\n'], tokens)