Ejemplo n.º 1
1
def categoryCatch(request,id):
	"""***抓取所有一级分类和其子分类***"""
	
	#--得到当前抓取网站相关信息--#
	site=SiteInfo.objects.get(id=id)																	#得到当前抓取的站点信息
	log=Log.objects.get(siteId=id)  																	#得到当前抓取站点的日志Log
	startUrl=site.startUrl  																				#得到抓取的起始页地址
	
	#--开始匹配和抓取--#
	try:
		topC=compiledTopPatterns.finditer(getHtml(startUrl)) 									#调用公共函数catchIter抓取所有一级分类,得到所有一级分类的迭代器
	except URLError,e:																				#如果出现URLError,将错误记录到日志,并返回错误信息和当前事件
		urlErrorHandler(log,e)																			#调用urlErrorHandler函数处理URLError
		log.currentEvent='Catch Category False'													#如果发生异常,则记录事件为'Catch Category False'
		log.save()																						#保存log数据
		return HttpResponse(log.errorInfo)															#返回log信息
Ejemplo n.º 2
0
def categoryCatch(request,id):
	"""***抓取所有一级分离和其子分类***"""
	
	#--得到当前抓取网站相关信息--#
	site=SiteInfo.objects.get(id=id)                                  										#得到当前抓取的站点信息
	log=Log.objects.get(siteId=id)                                   										#得到当前抓取站点的日志Log
	startUrl=site.startUrl                                                 										#得到抓取的起始页地址
	
	#--抓取分类--#
	try:
		topC=compiledTopPatterns.finditer(getHtml(startUrl))                   						#抓取所有一级分类,得到所有一级分类的迭代器
	except URLError,e:                                                               								#如果出现URLError,将错误记录到日志,并返回错误信息和当前事件
		urlErrorHandler(log,e)                                                       								#调用 urlErrorHandler函数处理异常
		log.currentEvent='Catch Category'
		log.save()
		return HttpResponse(log.errorInfo)
Ejemplo n.º 3
0
def bookDetailUpdate(request,id):
	"""***更新书籍:
	如果抓取得到的书籍已存在,则跳过;
	如果抓取得到的书籍不存在,表示是新书,则将其具体信息保存***"""
	
	#--得到上次抓取的断点信息--#
	log=Log.objects.get(siteId=id)                                                                   #取出当前抓取网站的Log
	lastBreakSubId=log.breakSubId                                                                 #得到上次抓取的断点子分类id
	lastBreakPageId=log.breakPageId                                                              #得到上次抓取的断点分页页码
	lastBreakItemId=log.breakItemId                                                               #得到上次抓取的分页中的具体断点书籍序号
	subcategory=SubCategory.objects.filter(siteId=id,id__gte=lastBreakSubId)   #得到该网站下所有id大于等于断点id的子分类(即从上次断点处开始抓取)
	
	#--对所有匹配分类进行判断和抓取--#
	for c in subcategory:                                                                                #对所有匹配分类进行循环
		log.breakSubId=c.id                                                                           #在日志里记录当前分类id
		log.breakSubTitle=c.title                                                                     #在日志里记录当前分类名称
		log.save()                                                                                          #保存Log
		firstUrl=c.url                                                                                      #得到子分类的图书列表地址(第一页)
		redirectUrl=urlopen(firstUrl).geturl()                                                    #得到子分类地址重定向后的地址(当当在这里做了重定向)
		
		#--得到总页数--#
		pageData=catchIter(pagePatterns,getHtml(redirectUrl))                         #抓取列表的分页信息
		try:
			for p in pageData:
				pagenum=p.group('Page')                                                       #得到当前子分类的总页数
			totalPageNum=int(pagenum)                                                         #将字符串转化为整型,用于下面的循环
		except NameError:  
			totalPageNum=1                                                                          #如果不存在第二页,则总页数为1
			
		#--开始抓取--#
		if c.id ==lastBreakSubId:                                                                    #判断当前子分类是否是上次断点子分类
			startPage=lastBreakPageId                                                           #如果是,则当前分类的起始页从上次断点分页处开始
			for i in range(startPage,totalPageNum+1):                                     #对所有匹配分页进行循环
				if i==startPage:                                                                    #判断是否是上次断点分页,如果是,则后面继续判断具体书籍序号
					if i==1:
						url=redirectUrl                                                          #如果上次断点分页为第一页,则使用第一页重定向后的地址redirectUrl
					else:
						url=getPageUrl(firstUrl,i)                                           #如果 i 不等于1,调用getPageUrl函数获取分页地址
					try:
						bookDetail_1=catchIter(detailPatterns_1,getHtml(url))  #抓取书的部分信息,得到当前页所有书籍的一个迭代器
					except URLError,e:                                                          #出现URLError异常后的处理
						urlErrorHandler(log,e)                                                #调用urlErrorHandler函数处理URLError
					itemId=0                                                                         #给当页具体书籍序号初始化
					for b in bookDetail_1:                                                       #对当前页的所有书籍进行循环
						itemId+=1                                                                 #记录下当前书籍序号
						if itemId <= lastBreakItemId:                                      #如果序号小于等于上次断点序号,跳过后面的语句
							continue
						else:                                                                         #如果序号大于上次断点序号,进行正常抓取和保存
							itemId+=1
							singleBookSave(c,log,b)                                         #执行单本书抓取和保存
				else:                                                                                      #如果不是上次断点分页,则执行正常抓取
					log.breakPageId=i                                                             #在Log里记录下当前分页页码
					log.save()                                                                         #保存到Log
					url=getPageUrl(firstUrl,i)
					try:
						bookDetail_1=catchIter(detailPatterns_1,getHtml(url))    #抓取书的部分信息,得到当前页所有书籍的一个迭代器
					except URLError,e:  
						urlErrorHandler(log,e)                                                 #调用urlErrorHandler函数处理URLError
					itemId=0
					for b in bookDetail_1:
						itemId+=1
						singleBookSave(c,log,b,itemId)                                    #调用singleBookSave函数完成单本书籍的抓取和保存
Ejemplo n.º 4
0
def bookDetailCatch(request,id):
	"""抓取书籍的具体信息,包括书名,作者,价格,购买地址等"""
	
	#--得到上次抓取的断点信息--#
	log=Log.objects.get(siteId=id)																	#取出当前抓取网站的Log
	lastBreakSubId=log.breakSubId																	#得到上次抓取的断点子分类id
	lastBreakPageId=log.breakPageId																#得到上次抓取的断点分页页码
	lastBreakItemId=log.breakItemId																#得到上次抓取的分页中的具体断点书籍序号
	subcategory=SubCategory.objects.filter(siteId=id,id__gte=lastBreakSubId)					#得到该网站下所有id大于等于断点id的子分类(即从上次断点处开始抓取)
	errorcode=0																						#初始化errorcode
	
	#--对所有匹配子分类进行循环、判断、抓取--#
	for c in subcategory:                                                                                				#对所有匹配分类进行循环
		log.breakSubId=c.id                                                                           				#在日志里记录当前分类id
		log.breakSubTitle=c.title                                                                     				#在日志里记录当前分类名称
		log.save()                                                                                          				#保存Log
		firstUrl=c.url                                                                                      				#得到子分类的图书列表地址(第一页)
		redirectUrl=urlopen(firstUrl).geturl()                                                    				#得到子分类地址重定向后的地址(当当在这里做了重定向)
		
		#--得到总页数--#
		try:
			pageData=compiledPagePatterns.finditer(getHtml(redirectUrl))		                    #抓取列表的分页信息
		except URLError,e:
			urlErrorHandler(log,e)                                                			       				#调用urlErrorHandler函数进行Log记录
			return HttpResponse('Page Exception Raised: %s' % log.errorInfo)     				#由于没有抓取到分页信息,停止抓取,返回错误信息
		try:
			for p in pageData:
				pagenum=p.group('Page')                                                       				#得到当前子分类的总页数
			totalPageNum=int(pagenum)                                                         				#将字符串转化为整型,用于下面的循环
		except NameError:  
			totalPageNum=1                                                                          				#如果不存在第二页,则总页数为1
			
		#--开始抓取--#
		if c.id ==lastBreakSubId:                                                                    				#判断当前子分类是否是上次断点子分类
			startPage=lastBreakPageId                                                           				#如果是,则当前分类的起始页从上次断点分页处开始
			for i in range(startPage,totalPageNum+1):                                     					#对所有匹配分页进行循环
				if i==startPage:                                                                    					#判断是否是上次断点分页,如果是,则后面继续判断具体书籍序号
					if i==1:
						url=redirectUrl                                                          					#如果上次断点分页为第一页,则使用第一页重定向后的地址redirectUrl
					else:
						url=getPageUrl(firstUrl,i)                                           					#如果 i 不等于1,调用getPageUrl函数获取分页地址
					try:
						bookDetail_1=compiledDetailPatterns_1.finditer(getHtml(url))				#抓取书的部分信息,得到当前页所有书籍的一个迭代器
					except URLError,e:																#出现URLError异常后的处理
						urlErrorHandler(log,e)															#调用urlErrorHandler函数处理URLError
					if errorcode==1:																	#如果发生异常,使用continue跳过后面的语句,循环到下一页
						continue
					itemId=0                                                                         				#给当页具体书籍序号初始化
					for b in bookDetail_1:                                                       					#对当前页的所有书籍进行循环
						itemId+=1                                                                 					#记录下当前书籍序号
						if itemId <= lastBreakItemId:                                      					#如果序号小于等于上次断点序号,跳过后面的语句
							continue
						else:																			#如果序号大于上次断点序号,进行正常抓取和保存
							try:
								singleBookSave(c,log,b,itemId)										#执行单本书抓取和保存
							except URLError,e:
								urlErrorHandler(log,e)
							if errorcode==1:															#如果发生异常,使用continue跳过后面的语句,循环到下一本书
								continue
					log.breakItemId=1																#当某一分页所有的书籍循环完毕后,立即将Log里的breakItemId置为1
					log.save()																			#保存到Log
				else:                                                                                      				#如果不是上次断点分页,则执行正常抓取
					log.breakPageId=i                                                             				#在Log里记录下当前分页页码
					log.save()                                                                         				#保存到Log
					url=getPageUrl(firstUrl,i)
					try:
						bookDetail_1=compiledDetailPatterns_1.finditer(getHtml(url))    			#抓取书的部分信息,得到当前页所有书籍的一个迭代器
					except URLError,e:  
						urlErrorHandler(log,e)                                                 					#调用urlErrorHandler函数处理URLError
					if errorcode==1:
						continue
					itemId=0
					for b in bookDetail_1:
						itemId+=1
						try:
							singleBookSave(c,log,b,itemId)                              					#调用singleBookSave函数完成单本书籍的抓取和保存
						except URLError,e:
							urlErrorHandler(log,e)
						if errorcode==1:
							continue
Ejemplo n.º 5
0
							continue
					log.breakItemId=1										  						#当某一分页所有的书籍循环完毕后,立即将Log里的breakItemId置为1
					log.save()												  							#保存到Log
		else:
			startPage=1                                                                                				#如果不是上次断点分类,则从第一页开始
			for i in range(startPage,totalPageNum+1):
				log.breakPageId=i  
				log.save()                                                                             				#在Log里记录下当前分页页码
				if i==1:
					url=redirectUrl                                                                					#如果i为1,则说明为第一页,使用第一页重定向后的地址redirectUrl
				else:
					url=getPageUrl(firstUrl,i)
				try:
					bookDetail_1=compiledDetailPatterns_1.finditer(getHtml(url))         			#抓取书的部分信息,得到当前页下所有书籍的迭代器
				except URLError,e:
					urlErrorHandler(log,e)                                                       					#调用urlErrorHandler函数处理URLError
				if errorcode==1:
					continue
				itemId=0
				for b in bookDetail_1:
					itemId+=1
					try:
						singleBookSave(c,log,b,itemId)                                     					#调用singleBookSave函数完成单本书籍的抓取和保存
					except URLError,e:
						urlErrorHandler(log,e)
					if errorcode==1:
						continue
				log.breakItemId=1
				log.save()
	return HttpResponse('抓取成功,请<a href="/bookcatch/addsites/">返回</a>')
	
Ejemplo n.º 6
0
def bookDetailCatch(request,id):
	"""***抓取书籍的具体信息,包括书名,作者,价格,购买地址等***"""
	
	#--得到上次抓取的断点信息--#
	log=Log.objects.get(siteId=id)																#取出当前抓取网站的Log
	lastBreakSubId=log.breakSubId																#得到上次抓取的断点子分类id
	lastBreakPageId=log.breakPageId															#得到上次抓取的断点分页页码
	lastBreakItemId=log.breakItemId															#得到上次抓取的分页中的具体断点书籍序号
	subcategory=SubCategory.objects.filter(siteId=id,id__gte=lastBreakSubId)                 	#得到该网站下所有id大于等于断点id的子分类(即从上次断点处开始抓取)
	errorcode=0
	
	#--对所有匹配子分类进行循环、判断、抓取--#
	for c in subcategory:																			#对所有匹配分类进行循环
		log.breakSubId=c.id                                                                                        #在日志里记录当前分类id
		log.breakSubTitle=c.title                                                                     			#在日志里记录当前分类名称
		log.save()                                                                                          			#保存Log
		firstUrl=c.url																				#得到子分类的图书列表第一页地址(后面用于分页)
		
		#--得到下一页的地址,并以此地址做为分页地址的模板,如果下一页存在,则将页数定为100页,否则,说明只有一页,页数定为1--#
		try:
			next=compiledPagePatterns.search(getHtml(firstUrl))  							#抓取下一页分页地址
		except URLError,e:
			urlErrorHandler(log,e)																	#如果出现URLError异常,调用urlErrorHandler函数进行Log记录
			return HttpResponse('Page Exception Raised: %s' % log.errorInfo)                  #由于没有抓取到分页信息,停止抓取,返回错误信息
		if next:																						#如果匹配到下一页
			nextUrl=next.group('Next')															#得到下一页的地址(是一个相对地址,后面将对这个地址进行转换)
			totalPageNum=100                                                                                   #将总页数强制定为100
		else:
			totalPageNum=1																		#如果没有匹配到下一页,则总页数为1
			
		#--开始抓取--#	
		if c.id==lastBreakSubId:																	#判断当前子分类是否是上次断点子分类
			startPage=lastBreakPageId															#如果当前分类是上次断点分类,则从上次断点分页开始抓取,设置起始页为上次断点页码
			for i in range(startPage,totalPageNum+1):											#对所有匹配分页进行循环
				if i==startPage:                                                                    				#判断是否是上次断点分页,如果是,则后面继续判断具体书籍序号
					if i==1:																			
						url=firstUrl																	#如果上次断点分页为第一页,则使用第一页地址firstUrl
					else:
						url=getPageUrl(nextUrl,i)													#如果 i 不等于1,调用getPageUrl函数获取分页地址
					try:
						htmlData=getHtml(url)													#得到当前分页的HTML内容数据
					except URLError,e:															#捕捉URLError异常
						urlErrorHandler(log,e)														#如果捕捉到异常,调用urlErrorHandler函数进行Log记录
					if errorcode==1:																#errocode为1时,说明发生异常,则使用continue跳过本次循环后面的语句,循环到下一页
						continue
					bookinfo=compiledDetailPatterns_1.search(htmlData)						#对书籍信息1进行匹配(用于判断该页是否超出分页范围,如果超出,则匹配结果为None)
					if bookinfo:																	#如果匹配到书籍信息,说明当前页没有超出页码范围
						bookDetail_1=compiledDetailPatterns_1.finditer(htmlData)				#对当前页的书籍信息1进行匹配,得到当前页所有书籍的购买地址等信息的一个迭代器
						itemId=0																	#给当页具体书籍序号初始化
						for bd1 in bookDetail_1:													#对迭代器进行循环,得到每一本书的数据
							itemId+=1                                                                 			#记录下当前书籍序号
							if itemId <= lastBreakItemId:                                      			#如果序号小于等于上次断点序号,跳过后面的语句
								continue
							else:                                                                         			#如果序号大于上次断点序号,进行正常抓取和保存
								try:
									singleBookSave(c,log,bd1,itemId)                        			#执行单本书抓取和保存
								except URLError,e:
									urlErrorHandler(log,e)											#如果捕捉到异常,调用urlErrorHandler函数进行Log记录
								if errorcode==1:													#errorcode为1时,说明发生异常,则使用continue跳过本次循环后面的语句,循环到下一页
									continue
						log.breakItemId=1										  				#当某一分页所有的书籍循环完毕后,立即将Log里的breakItemId置为1
						log.save()
					else:																			#如果bookinfo为None,说明超出页码范围,立即停止分页循环,进行下一个分类的抓取
						break
				else:																				#如果不是上次断点分页,则执行正常抓取
					log.breakPageId=i                                                             			#在Log里记录下当前分页页码
					log.save()
					url=getPageUrl(nextUrl,i)														#调用getPageUrl函数获取分页地址
					try:
						htmlData=getHtml(url)													#得到当前分页的HTML内容数据
					except URLError,e:															#捕捉URLError异常
						urlErrorHandler(log,e)														#如果捕捉到异常,调用urlErrorHandler函数进行Log记录
					if errorcode==1:																#errorcode为1时,说明发生异常,则使用continue跳过本次循环后面的语句,循环到下一页
						continue
					bookinfo=compiledDetailPatterns_1.search(htmlData)						#对书籍信息1进行匹配(用于判断该页是否超出分页范围,如果超出,则匹配结果为None)
					if bookinfo:																	#如果匹配到书籍信息,说明当前页没有超出页码范围
						bookDetail_1=compiledDetailPatterns_1.finditer(htmlData)				#对当前页的书籍信息1进行匹配,得到当前页所有书籍的购买地址等信息的一个迭代器
						itemId=0
						for bd1 in bookDetail_1:													#对迭代器进行循环,得到每一本书的数据
							itemId+=1
							try:
								singleBookSave(c,log,bd1,itemId)                        				#执行单本书抓取和保存
							except URLError,e:
								urlErrorHandler(log,e)												#捕捉到URLError异常后,调用urlErrorHandler函数进行Log记录
							if errorcode==1:														#errocode为1时,说明发生异常,则使用continue跳过本次循环后面的语句,循环到下一本书
								continue
						log.breakItemId=1										  				#当某一分页所有的书籍循环完毕后,立即将Log里的breakItemId置为1
						log.save()
Ejemplo n.º 7
0
					sc=SubCategory(title=subTitle,url=subLink,topcategory=tc,siteId=id)		#将子分类数据保存到数据库中
					sc.save()
					#--保存成功,将事件记录到日志--#
					log.errorInfo='No Exception Raise'                       								#保存日志错误信息
					log.currentEvent='Save Category Success'           								#保存当前事件
					log.save()
					
	#--抓取“进口原版”分类,由于卓越的所有分类的进口原版分类url地址错误,所以要从其他页面抓取--#
			
	#进口原版的分类地址#		
	IOUrl='http://www.amazon.cn/s/qid=1261309185/ref=sr_nr_n_49?ie=UTF8&rs=658391051&bbn=658391051&rnid=658391051&rh=n%3A658390051%2Cn%3A!658391051%2Cn%3A2045366051'

	try:
		IOData=compiledIOPatterns.finditer(getHtml(IOUrl))                       						#抓取进口原版分类下的子分类,得到一个子分类的迭代器
	except URLError,e:
		urlErrorHandler(log,e)																			#调用 urlErrorHandler函数处理异常
		log.currentEvent='Catch Category'
		return HttpResponse(log.errorInfo)
	tc=TopCategory(title='进口原版',url=IOUrl,siteId=id)                  							#保存‘进口原版’到一级分类数据库中
	tc.save()
	for io in IOData:                                                                     							#对其子分类进行迭代
		subLink=io.group('SubLink')                                                							#取出进口原版子分类地址
		subTitle=io.group('SubTitle')                                              							#取出进口原版子分类名称
		sc=SubCategory(title=subTitle,url=subLink,topcategory=tc,siteId=id)         				#将进口原版保存到数据库中
		sc.save()
		
		#--保存成功,将事件记录到日志--#
		log.errorInfo='No Exception Raise'                                       							#保存日志错误信息
		log.currentEvent='Save Category Success'                           							#保存当前事件
		log.save()
	return HttpResponse('抓取成功,请<a href="/bookcatch/addsites/">返回</a>')   			#抓取完成,返回到站点添加页面