コード例 #1
0
ファイル: offline.py プロジェクト: hammadk373/crawley
 def _get_response(self, url, data=None):
     
     response = BaseCrawler._get_response(self, url, data)
            
     fixer = HTMLFixer(self._url_regex, url, response.raw_html)        
     html = fixer.get_fixed_html()
     
     return html
コード例 #2
0
    def _get_response(self, url, data=None):

        response = BaseCrawler._get_response(self, url, data)

        fixer = HTMLFixer(self._url_regex, url, response.raw_html)
        html = fixer.get_fixed_html()

        return html
コード例 #3
0
ファイル: fast.py プロジェクト: wgfi110/crawley
    def __init__(self, *args, **kwargs):

        BaseCrawler.__init__(self, *args, **kwargs)
        self.request_manager = FastRequestManager()
コード例 #4
0
ファイル: crawler.py プロジェクト: vinceau/fbscraper
 def __init__(self):
     BaseCrawler.__init__(self)
     self.stop_request = False
     self.pause_request = False
     self.status = 'init'
     self._set_status('ready')
コード例 #5
0
ファイル: crawler.py プロジェクト: vinceau/fbscraper
 def delay(self, multiplier=1):
     self._set_status('paused')
     BaseCrawler.delay(self, multiplier)
     while (self.pause_request) and not self.stop_request:
         pass
     self._set_status('running')
コード例 #6
0
ファイル: offline.py プロジェクト: hammadk373/crawley
 def __init__(self, *args, **kwargs):
     
     BaseCrawler.__init__(self, *args, **kwargs)
コード例 #7
0
ファイル: fast.py プロジェクト: 4iji/crawley
    def __init__(self, *args, **kwargs):

        BaseCrawler.__init__(self, *args, **kwargs)
        self.request_manager = FastRequestManager()
コード例 #8
0
    def __init__(self, *args, **kwargs):

        BaseCrawler.__init__(self, *args, **kwargs)