Exemple #1
0
def main():
    latest_chapter, latest_gallaries = scraping()

    output_array = []  # この配列の中身を最終的にログとしてCSVファイルに書き込む
    past_gallaries = input_csv(csv_path)
    if not past_gallaries:  # 初期化
        print('csvファイルは空です')
        log_creation(latest_gallaries)
        past_gallaries = latest_gallaries

    output_array.append(latest_gallaries)

    if past_gallaries != latest_gallaries:
        # 差分のリストを取得、複数の更新があった場合複数のメッセージを作成する
        diff_list = list(set(latest_gallaries) -
                         set(past_gallaries[0]))  # set型・・・集合を扱う
        # print(diff_list)
        for n in diff_list:
            c = f'{latest_chapter} {n.strip(".jpg")}'
            send_to_slack(title, url, c)
    else:
        print("The Article has not updated ...")

    # ログをCSVに書き込む
    output_csv(csv_path, output_array)
def update_check():

    output_array = []  # この配列の中身を最終的にログとしてCSVファイルに書き込む
    past_data_list = input_csv(csv_path)
    if not past_data_list:
        print('csvファイルは空です')
        log_creation()
        past_data_list = input_csv(csv_path)

    for i, data in enumerate(MANGA_LIST):
        current_data = scraping(data[0], data[1])
        output_array.append(current_data)
        past_data = past_data_list[i]
        if past_data != current_data:
            # 差分のリストを取得、複数の更新があった場合複数のメッセージを作成する
            diff_list = list(set(current_data) -
                             set(past_data))  # set型・・・集合を扱う
            # print(diff_list)
            for n in diff_list:
                send_to_slack(n.strip("¥n"))
        else:
            print("The Article has not updated ...")

    # ログをCSVに書き込む
    output_csv(csv_path, output_array)
Exemple #3
0
def log_creation(url_list=url_list):
    log_array = []
    for i, url in enumerate(url_list):
        rss_meta_list = scraping(url)
        log_array.append(rss_meta_list)

    # print(log_array)
    output_csv(csv_path, log_array)
Exemple #4
0
def log_creation():
    output_array = [] # この配列の中身を最終的にログとしてCSVファイルに書き込む
    for i, data in enumerate(MANGA_LIST):
        # [0]:URL [1]:HTML_TAG
        current_data = scraping(data[0], data[1], data[2])
        print(current_data)
        # 最新の更新情報をアペンド
        output_array.append(current_data)

    # ログをCSVに書き込む
    output_csv(csv_path, output_array)
Exemple #5
0
def main():
    output_array = []  # この配列の中身を最終的にログとしてCSVファイルに書き込む
    # ログを取得
    past_data_list = input_csv(csv_path)
    if len(past_data_list) != len(url_list):
        print('csvファイルは空です')
        log_creation()
        past_data_list = input_csv(csv_path)

    for i, url in enumerate(url_list):
        current_data = scraping(url)
        output_array.append(current_data)
        past_data = past_data_list[i]
        if past_data != current_data:
            # print(current_data)
            send_to_slack(current_data[0], current_data[1], current_data[2])
        else:
            print("The Article has not updated ...")

    # ログをCSVに書き込む
    output_csv(csv_path, output_array)
def main():
    output_array = []  # この配列の中身を最終的にログとしてCSVファイルに書き込む
    latest = scraping()  # 話のタイトルのリスト
    past = input_csv(csv_path)
    if not past:  # 初期化

        print('csvファイルは空です')
        log_creation(latest)
        past = latest

    output_array.append(latest)

    if past[0] != latest:
        # 差分のリストを取得、複数の更新があった場合複数のメッセージを作成する
        diff_list = list(set(latest) - set(past[0]))  # set型・・・集合を扱う
        # print(diff_list)
        for n in diff_list:
            send_to_slack(title, url, n)
    else:
        print("The Article has not updated ...")

    # ログをCSVに書き込む
    output_csv(csv_path, output_array)
Exemple #7
0
def log_creation(gallaries):
    output_array = []
    output_array.append(gallaries)
    output_csv(csv_path, output_array)
def log_creation(chapters):
    output_array = []
    output_array.append(chapters)
    output_csv(csv_path, output_array)