Esempio n. 1
0
 def _get_response(self, url, data=None):
     
     response = BaseCrawler._get_response(self, url, data)
            
     fixer = HTMLFixer(self._url_regex, url, response.raw_html)        
     html = fixer.get_fixed_html()
     
     return html
Esempio n. 2
0
    def _get_response(self, url, data=None):

        response = BaseCrawler._get_response(self, url, data)

        fixer = HTMLFixer(self._url_regex, url, response.raw_html)
        html = fixer.get_fixed_html()

        return html
Esempio n. 3
0
    def __init__(self, *args, **kwargs):

        BaseCrawler.__init__(self, *args, **kwargs)
        self.request_manager = FastRequestManager()
Esempio n. 4
0
 def __init__(self):
     BaseCrawler.__init__(self)
     self.stop_request = False
     self.pause_request = False
     self.status = 'init'
     self._set_status('ready')
Esempio n. 5
0
 def delay(self, multiplier=1):
     self._set_status('paused')
     BaseCrawler.delay(self, multiplier)
     while (self.pause_request) and not self.stop_request:
         pass
     self._set_status('running')
Esempio n. 6
0
 def __init__(self, *args, **kwargs):
     
     BaseCrawler.__init__(self, *args, **kwargs)
Esempio n. 7
0
File: fast.py Progetto: 4iji/crawley
    def __init__(self, *args, **kwargs):

        BaseCrawler.__init__(self, *args, **kwargs)
        self.request_manager = FastRequestManager()
Esempio n. 8
0
    def __init__(self, *args, **kwargs):

        BaseCrawler.__init__(self, *args, **kwargs)