最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
当前位置: 首页 - 科技 - 知识百科 - 正文

python妹子图简单爬虫实例

来源:动视网 责编:小采 时间:2020-11-27 14:34:18
文档

python妹子图简单爬虫实例

python妹子图简单爬虫实例:本文实例讲述了python妹子图简单爬虫实现方法。分享给大家供大家参考。具体如下: #!/usr/bin/env python #coding: utf-8 import urllib import urllib2 import os import re import sys #显示下载进度 def schedule(
推荐度:
导读python妹子图简单爬虫实例:本文实例讲述了python妹子图简单爬虫实现方法。分享给大家供大家参考。具体如下: #!/usr/bin/env python #coding: utf-8 import urllib import urllib2 import os import re import sys #显示下载进度 def schedule(
 本文实例讲述了python妹子图简单爬虫实现方法。分享给大家供大家参考。具体如下:

#!/usr/bin/env python
#coding: utf-8
import urllib
import urllib2
import os
import re
import sys
#显示下载进度
def schedule(a,b,c):
 '''''
 a:已经下载的数据块
 b:数据块的大小
 c:远程文件的大小
 '''
 per = 100.0 * a * b / c
 if per > 100 :
 per = 100
 print '%.2f%%' % per
#获取html源码
def getHtml(url):
 page = urllib.urlopen(url)
 html = page.read()
 return html
#下载图片
def downloadImg(html, num, foldername):
 picpath = '%s' % (foldername) #下载到的本地目录
 if not os.path.exists(picpath): #路径不存在时创建一个
 os.makedirs(picpath)
 target = picpath+'/%s.jpg' % num
 myItems = re.findall('

',html,re.S) print 'Downloading image to location: ' + target urllib.urlretrieve(myItems[0], target, schedule) #正则匹配分页 def findPage(html): myItems = re.findall('(d*)', html, re.S) return myItems.pop() #正则匹配列表 def findList(html): myItems = re.findall('

.*?

', html, re.S) return myItems #总下载 def totalDownload(modelUrl): listHtml5 = getHtml(modelUrl) listContent = findList(listHtml) for list in listContent: html = getHtml('http://www.mzitu.com/' + str(list[0])) totalNum = findPage(html) for num in range(1, int(totalNum)+1): if num == 1: url = 'http://www.mzitu.com/' + str(list[0]) html5 = getHtml(url) downloadImg(html5, str(num), str(list[1])) else: url = 'http://www.mzitu.com/' + str(list[0]) + '/'+str(num) html5 = getHtml(url) downloadImg(html5, str(num), str(list[1])) if __name__ == '__main__': listHtml = getHtml('http://www.mzitu.com/model') #这是其中一个模块的url,可以添加不同的模块url从而达到整站爬取。 for model in range(1, int(findPage(listHtml))+1): if model == 1: modelUrl = 'http://www.mzitu.com/model' totalDownload(modelUrl) else: modelUrl = 'http://www.mzitu.com/model/page/' + str(model) totalDownload(modelUrl) print "Download has finished."

希望本文所述对大家的Python程序设计有所帮助。

文档

python妹子图简单爬虫实例

python妹子图简单爬虫实例:本文实例讲述了python妹子图简单爬虫实现方法。分享给大家供大家参考。具体如下: #!/usr/bin/env python #coding: utf-8 import urllib import urllib2 import os import re import sys #显示下载进度 def schedule(
推荐度:
标签: 案例 实例 python
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题
Top