最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
当前位置: 首页 - 科技 - 知识百科 - 正文

Python实现爬取逐浪小说的方法

来源:动视网 责编:小采 时间:2020-11-27 14:34:15
文档

Python实现爬取逐浪小说的方法

Python实现爬取逐浪小说的方法:本文实例讲述了Python实现爬取逐浪小说的方法。分享给大家供大家参考。具体分析如下: 本人喜欢在网上看小说,一直使用的是小说下载阅读器,可以自动从网上下载想看的小说到本地,比较方便。最近在学习Python的爬虫,受此启发,突然就想到写一个爬取小说内容
推荐度:
导读Python实现爬取逐浪小说的方法:本文实例讲述了Python实现爬取逐浪小说的方法。分享给大家供大家参考。具体分析如下: 本人喜欢在网上看小说,一直使用的是小说下载阅读器,可以自动从网上下载想看的小说到本地,比较方便。最近在学习Python的爬虫,受此启发,突然就想到写一个爬取小说内容


本文实例讲述了Python实现爬取逐浪小说的方法。分享给大家供大家参考。具体分析如下:

本人喜欢在网上看小说,一直使用的是小说下载阅读器,可以自动从网上下载想看的小说到本地,比较方便。最近在学习Python的爬虫,受此启发,突然就想到写一个爬取小说内容的脚本玩玩。于是,通过在逐浪上面分析源代码,找出结构特点之后,写了一个可以爬取逐浪上小说内容的脚本。

具体实现功能如下:输入小说目录页的url之后,脚本会自动分析目录页,提取小说的章节名和章节链接地址。然后再从章节链接地址逐个提取章节内容。现阶段只是将小说从第一章开始,每次提取一章内容,回车之后提取下一章内容。其他网站的结果可能有不同,需要做一定修改。在逐浪测试过正常。

现分享此代码,一是做个记录,方便自己以后回顾。二么也想抛砖引玉,希望各路大神不吝赐教。

#-*-coding:utf8-*-
#!/usr/bin/python
# Python: 2.7.8
# Platform: Windows
# Program: Get Novels From Internet
# Author: wucl
# Description: Get Novels
# Version: 1.0
# History: 2015.5.27 完成目录和url提取
# 2015.5.28 完成目录中正则提取第*章,提取出章节链接并下载。在逐浪测试下载无误。
from bs4 import BeautifulSoup
import urllib2,re
def get_menu(url):
 """Get chapter name and its url"""
 user_agent = "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0"
 headers = {'User-Agent':user_agent}
 req = urllib2.Request(url,headers = headers)
 page = urllib2.urlopen(req).read()
 soup = BeautifulSoup(page)
 novel = soup.find_all('title')[0].text.split('_')[0]
 # 提取小说名
 menu = []
 all_text = soup.find_all('a',target="_blank")
 # 提取记载有小说章节名和链接地址的模块
 regex=re.compile(ur'u7b2c.+u7ae0')
 # 中文正则匹配第..章,去除不必要的链接
 for title in all_text:
 if re.findall(regex,title.text):
 name = title.text
 x = [name,title['href']]
 menu.append(x)
 # 把记载有小说章节名和链接地址的列表插入列表中
 return menu,novel
def get_chapter(name,url):
 """Get every chapter in menu"""
 html=urllib2.urlopen(url).read()
 soup=BeautifulSoup(html)
 content=soup.find_all('p') # 提取小说正文
 return content[0].text
if __name__=="__main__":
 url=raw_input("""Input the main page's url of the novel in ZhuLang
 Then Press Enter to Continue
""")
 if url:
 menu,title=get_menu(url)
 print title,str(len(menu))+'
 Press Enter To Continue 
' 
 # 
输出获取到的小说名和章节数 for i in menu: chapter=get_chapter(i[0],i[1]) raw_input() print ' '+i[0]+' ' print chapter print ' '

希望本文所述对大家的Python程序设计有所帮助。

文档

Python实现爬取逐浪小说的方法

Python实现爬取逐浪小说的方法:本文实例讲述了Python实现爬取逐浪小说的方法。分享给大家供大家参考。具体分析如下: 本人喜欢在网上看小说,一直使用的是小说下载阅读器,可以自动从网上下载想看的小说到本地,比较方便。最近在学习Python的爬虫,受此启发,突然就想到写一个爬取小说内容
推荐度:
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题
Top