最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
当前位置: 首页 - 科技 - 知识百科 - 正文

python爬取百度美女图片

来源:动视网 责编:小采 时间:2020-11-27 14:15:08
文档

python爬取百度美女图片

python爬取百度美女图片:通过http://www.gxlcms.com/wiki/1514.html target=_blank
推荐度:
导读python爬取百度美女图片:通过http://www.gxlcms.com/wiki/1514.html target=_blank
 通过http://www.gxlcms.com/wiki/1514.html" target="_blank">python批量自动化下载百度美女图片

效果是这样的


效果展示

我的代码

import requests
import re


翻页查看图片模式

#获取每页图片的访问链接
def get_page():
 urls=['http://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%E7%BE%8E%E5%A5%B3%E5%9B%BE%E7%89%87&pn={}&gsm=3c00000000003c'.format(num) for num in range(0,20000,20)]
 for url in urls:
 print(url)
 get_img_link(url)
#从网页中获取每个图片的访问链接
def get_img_link(url):
 r=requests.get(url)
 #print(r.encoding)
 r.encoding='utf-8'
 html_code=r.text
 reg=re.compile(r'"objURL":"(.*?)"')
 imgs=re.findall(reg,html_code)
 # print(imgs)
 for img in imgs:
 #print(img)
 down_img(img)
#图片下载保存再本地
def down_img(url):
 web_data=requests.get(url)
 filename=url.split('/')[-1]
 targetfile='E:/pict_baidu/{}'.format(filename)
 with open(targetfile,'wb') as f:
 f.write(web_data.content)
if name=='main':
 get_page()

总结

  • 爬虫思路-获取多页访问链接->获取每页图片链接->图片下载;

  • 正则表达式的使用;

  • format与with open as语法的使用;

  • 编码方式调整;

  • requests与re模块的使用。

  • 文档

    python爬取百度美女图片

    python爬取百度美女图片:通过http://www.gxlcms.com/wiki/1514.html target=_blank
    推荐度:
    标签: 图片 百度 美女
    • 热门焦点

    最新推荐

    猜你喜欢

    热门推荐

    专题
    Top