コード例 #1
0
def test_tokenize(sql, expected_tokens):
    tokens = [
        Token(token_type, token_value)
        for token_type, token_value in expected_tokens
    ]

    assert_tokens(tokens, tokenize(sql))
コード例 #2
0
def format_sql(s, debug=False):
    tokens = list(tokenize(s))
    if debug:
        print_non_data('Tokens: %s' % tokens)
    parsed = list(parse(tokens))
    if debug:
        print_non_data('Statements: %s' % parsed)
    styled = style(parsed)
    if debug:
        print_non_data('Output: %s' % styled)
    return styled
コード例 #3
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_select_2(select_2):
    assert_tokens(select_2.tokens, tokenize(select_2.sql))
コード例 #4
0
def test_tokenize_select_3(select_3):
    assert_tokens(select_3.tokens, tokenize(select_3.sql))
コード例 #5
0
def test_tokenize_insert3(insert_3):
    assert_tokens(insert_3.tokens, tokenize(insert_3.sql))
コード例 #6
0
def test_tokenize_case_1(case_1):
    assert_tokens(case_1.tokens, tokenize(case_1.sql))
コード例 #7
0
def test_tokenize_where_11(where_11):
    assert_tokens(where_11.tokens, tokenize(where_11.sql))
コード例 #8
0
def test_tokenize_composition_3(composition_3):
    assert_tokens(composition_3.tokens, tokenize(composition_3.sql))
コード例 #9
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_where_6(where_6):
    assert_tokens(where_6.tokens, tokenize(where_6.sql))
コード例 #10
0
def test_tokenize_where_7(where_7):
    assert_tokens(where_7.tokens, tokenize(where_7.sql))
コード例 #11
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_where_4(where_4):
    assert_tokens(where_4.tokens, tokenize(where_4.sql))
コード例 #12
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_where_5(where_5):
    assert_tokens(where_5.tokens, tokenize(where_5.sql))
コード例 #13
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_where_3(where_3):
    assert_tokens(where_3.tokens, tokenize(where_3.sql))
コード例 #14
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_select_4(select_4):
    assert_tokens(select_4.tokens, tokenize(select_4.sql))
コード例 #15
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_select_3(select_3):
    assert_tokens(select_3.tokens, tokenize(select_3.sql))
コード例 #16
0
def test_tokenize_where_3(where_3):
    assert_tokens(where_3.tokens, tokenize(where_3.sql))
コード例 #17
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_where_7(where_7):
    assert_tokens(where_7.tokens, tokenize(where_7.sql))
コード例 #18
0
def test_tokenize_where_5(where_5):
    assert_tokens(where_5.tokens, tokenize(where_5.sql))
コード例 #19
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_where_8(where_8):
    assert_tokens(where_8.tokens, tokenize(where_8.sql))
コード例 #20
0
def test_tokenize_where_9(where_9):
    assert_tokens(where_9.tokens, tokenize(where_9.sql))
コード例 #21
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_where_9(where_9):
    assert_tokens(where_9.tokens, tokenize(where_9.sql))
コード例 #22
0
def test_tokenize_composition_1(composition_1):
    assert_tokens(composition_1.tokens, tokenize(composition_1.sql))
コード例 #23
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_where_10(where_10):
    assert_tokens(where_10.tokens, tokenize(where_10.sql))
コード例 #24
0
def test_tokenize_insert1(insert_1):
    assert_tokens(insert_1.tokens, tokenize(insert_1.sql))
コード例 #25
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_order_by_4(order_by_4):
    assert_tokens(order_by_4.tokens, tokenize(order_by_4.sql))
コード例 #26
0
def test_tokenize_between_1(between_1):
    assert_tokens(between_1.tokens, tokenize(between_1.sql))
コード例 #27
0
def test_tokenize_select_1(select_1):
    assert_tokens(select_1.tokens, tokenize(select_1.sql))
コード例 #28
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_where_11(where_11):
    assert_tokens(where_11.tokens, tokenize(where_11.sql))
コード例 #29
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_select_1(select_1):
    assert_tokens(select_1.tokens, tokenize(select_1.sql))
コード例 #30
0
def test_tokenize_order_by_4(order_by_4):
    assert_tokens(order_by_4.tokens, tokenize(order_by_4.sql))
コード例 #31
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_where_12(where_12):
    assert_tokens(where_12.tokens, tokenize(where_12.sql))
コード例 #32
0
def test_tokenize_select_2(select_2):
    assert_tokens(select_2.tokens, tokenize(select_2.sql))
コード例 #33
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_composition_1(composition_1):
    assert_tokens(composition_1.tokens, tokenize(composition_1.sql))
コード例 #34
0
def test_tokenize_select_4(select_4):
    assert_tokens(select_4.tokens, tokenize(select_4.sql))
コード例 #35
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_composition_2(composition_2):
    assert_tokens(composition_2.tokens, tokenize(composition_2.sql))
コード例 #36
0
def test_tokenize_where_4(where_4):
    assert_tokens(where_4.tokens, tokenize(where_4.sql))
コード例 #37
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_composition_3(composition_3):
    assert_tokens(composition_3.tokens, tokenize(composition_3.sql))
コード例 #38
0
def test_tokenize_where_6(where_6):
    assert_tokens(where_6.tokens, tokenize(where_6.sql))
コード例 #39
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_multiple_statements1(multiple_statements_1):
    assert_tokens(multiple_statements_1.tokens,
                  tokenize(multiple_statements_1.sql))
コード例 #40
0
def test_tokenize_where_8(where_8):
    assert_tokens(where_8.tokens, tokenize(where_8.sql))
コード例 #41
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_insert1(insert_1):
    assert_tokens(insert_1.tokens, tokenize(insert_1.sql))
コード例 #42
0
def test_tokenize_where_10(where_10):
    assert_tokens(where_10.tokens, tokenize(where_10.sql))
コード例 #43
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_insert2(insert_2):
    assert_tokens(insert_2.tokens, tokenize(insert_2.sql))
コード例 #44
0
def test_tokenize_where_12(where_12):
    assert_tokens(where_12.tokens, tokenize(where_12.sql))
コード例 #45
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_insert3(insert_3):
    assert_tokens(insert_3.tokens, tokenize(insert_3.sql))
コード例 #46
0
def test_tokenize_composition_2(composition_2):
    assert_tokens(composition_2.tokens, tokenize(composition_2.sql))
コード例 #47
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_insert4(insert_4):
    assert_tokens(insert_4.tokens, tokenize(insert_4.sql))
コード例 #48
0
def test_tokenize_multiple_statements1(multiple_statements_1):
    assert_tokens(multiple_statements_1.tokens,
                  tokenize(multiple_statements_1.sql))
コード例 #49
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_between_1(between_1):
    assert_tokens(between_1.tokens, tokenize(between_1.sql))
コード例 #50
0
def test_tokenize_insert2(insert_2):
    assert_tokens(insert_2.tokens, tokenize(insert_2.sql))
コード例 #51
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_like_1(like_1):
    assert_tokens(like_1.tokens, tokenize(like_1.sql))
コード例 #52
0
def test_tokenize_insert4(insert_4):
    assert_tokens(insert_4.tokens, tokenize(insert_4.sql))
コード例 #53
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_case_1(case_1):
    assert_tokens(case_1.tokens, tokenize(case_1.sql))
コード例 #54
0
def test_tokenize_like_1(like_1):
    assert_tokens(like_1.tokens, tokenize(like_1.sql))
コード例 #55
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_case_2(case_2):
    assert_tokens(case_2.tokens, tokenize(case_2.sql))
コード例 #56
0
def test_tokenize_case_2(case_2):
    assert_tokens(case_2.tokens, tokenize(case_2.sql))
コード例 #57
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize(sql, expected_tokens):
    tokens = [Token(token_type, token_value)
              for token_type, token_value in expected_tokens]

    assert_tokens(tokens, tokenize(sql))
コード例 #58
0
def test_tokenize_order_by_3(order_by_3):
    assert_tokens(order_by_3.tokens, tokenize(order_by_3.sql))
コード例 #59
0
ファイル: test_tokenizer.py プロジェクト: paetzke/format-sql
def test_tokenize_order_by_3(order_by_3):
    assert_tokens(order_by_3.tokens, tokenize(order_by_3.sql))