def main(): latest_chapter, latest_gallaries = scraping() output_array = [] # この配列の中身を最終的にログとしてCSVファイルに書き込む past_gallaries = input_csv(csv_path) if not past_gallaries: # 初期化 print('csvファイルは空です') log_creation(latest_gallaries) past_gallaries = latest_gallaries output_array.append(latest_gallaries) if past_gallaries != latest_gallaries: # 差分のリストを取得、複数の更新があった場合複数のメッセージを作成する diff_list = list(set(latest_gallaries) - set(past_gallaries[0])) # set型・・・集合を扱う # print(diff_list) for n in diff_list: c = f'{latest_chapter} {n.strip(".jpg")}' send_to_slack(title, url, c) else: print("The Article has not updated ...") # ログをCSVに書き込む output_csv(csv_path, output_array)
def update_check(): output_array = [] # この配列の中身を最終的にログとしてCSVファイルに書き込む past_data_list = input_csv(csv_path) if not past_data_list: print('csvファイルは空です') log_creation() past_data_list = input_csv(csv_path) for i, data in enumerate(MANGA_LIST): current_data = scraping(data[0], data[1]) output_array.append(current_data) past_data = past_data_list[i] if past_data != current_data: # 差分のリストを取得、複数の更新があった場合複数のメッセージを作成する diff_list = list(set(current_data) - set(past_data)) # set型・・・集合を扱う # print(diff_list) for n in diff_list: send_to_slack(n.strip("¥n")) else: print("The Article has not updated ...") # ログをCSVに書き込む output_csv(csv_path, output_array)
def log_creation(url_list=url_list): log_array = [] for i, url in enumerate(url_list): rss_meta_list = scraping(url) log_array.append(rss_meta_list) # print(log_array) output_csv(csv_path, log_array)
def log_creation(): output_array = [] # この配列の中身を最終的にログとしてCSVファイルに書き込む for i, data in enumerate(MANGA_LIST): # [0]:URL [1]:HTML_TAG current_data = scraping(data[0], data[1], data[2]) print(current_data) # 最新の更新情報をアペンド output_array.append(current_data) # ログをCSVに書き込む output_csv(csv_path, output_array)
def main(): output_array = [] # この配列の中身を最終的にログとしてCSVファイルに書き込む # ログを取得 past_data_list = input_csv(csv_path) if len(past_data_list) != len(url_list): print('csvファイルは空です') log_creation() past_data_list = input_csv(csv_path) for i, url in enumerate(url_list): current_data = scraping(url) output_array.append(current_data) past_data = past_data_list[i] if past_data != current_data: # print(current_data) send_to_slack(current_data[0], current_data[1], current_data[2]) else: print("The Article has not updated ...") # ログをCSVに書き込む output_csv(csv_path, output_array)
def main(): output_array = [] # この配列の中身を最終的にログとしてCSVファイルに書き込む latest = scraping() # 話のタイトルのリスト past = input_csv(csv_path) if not past: # 初期化 print('csvファイルは空です') log_creation(latest) past = latest output_array.append(latest) if past[0] != latest: # 差分のリストを取得、複数の更新があった場合複数のメッセージを作成する diff_list = list(set(latest) - set(past[0])) # set型・・・集合を扱う # print(diff_list) for n in diff_list: send_to_slack(title, url, n) else: print("The Article has not updated ...") # ログをCSVに書き込む output_csv(csv_path, output_array)
def log_creation(gallaries): output_array = [] output_array.append(gallaries) output_csv(csv_path, output_array)
def log_creation(chapters): output_array = [] output_array.append(chapters) output_csv(csv_path, output_array)