コード例 #1
0
ファイル: pageDict.py プロジェクト: aiyang-t/crawler
    def runDetail(self, file_path, confs, listconfs):
        csv = Csv_base()
        # 数据读取
        for listconf in listconfs:
            dic_list = []
            for row in listconf['columns']:
                dic_list.append(row['名称'])
            listList = csv.read_csv_file_dict(file_path=file_path,
                                              fieldnames=dic_list)

            for row in listList:
                self.crawlerDetail(confs, url=row[confs['urlname']])
コード例 #2
0
ファイル: pageDict.py プロジェクト: aiyang-t/crawler
    def runList(self, file_path, confs, dictconf):
        csv = Csv_base()
        # 数据读取
        dic_list = []
        for row in dictconf['columns']:
            dic_list.append(row['名称'])
        dictList = csv.read_csv_file_dict(file_path=file_path,
                                          fieldnames=dic_list)

        # 数据写入
        for dict in dictList:
            for conf in confs:
                self.crawlerNext(conf, url=dict[conf['urlname']])