最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
当前位置: 首页 - 科技 - 知识百科 - 正文

python提取页面内url列表的方法

来源:动视网 责编:小采 时间:2020-11-27 14:41:13
文档

python提取页面内url列表的方法

python提取页面内url列表的方法:本文实例讲述了python提取页面内url列表的方法。分享给大家供大家参考。具体实现方法如下: from bs4 import BeautifulSoup import time,re,urllib2 t=time.time() websiteurls={} def scanpage(url): websiteurl
推荐度:
导读python提取页面内url列表的方法:本文实例讲述了python提取页面内url列表的方法。分享给大家供大家参考。具体实现方法如下: from bs4 import BeautifulSoup import time,re,urllib2 t=time.time() websiteurls={} def scanpage(url): websiteurl


本文实例讲述了python提取页面内url列表的方法。分享给大家供大家参考。具体实现方法如下:

from bs4 import BeautifulSoup
import time,re,urllib2
t=time.time()
websiteurls={}
def scanpage(url):
 websiteurl=url
 t=time.time()
 n=0
 html=urllib2.urlopen(websiteurl).read()
 soup=BeautifulSoup(html)
 pageurls=[]
 Upageurls={}
 pageurls=soup.find_all("a",href=True)
 for links in pageurls:
 if websiteurl in links.get("href") and links.get("href") not in Upageurls and links.get("href") not in websiteurls:
 Upageurls[links.get("href")]=0
 for links in Upageurls.keys():
 try:
 urllib2.urlopen(links).getcode()
 except:
 print "connect failed"
 else:
 t2=time.time()
 Upageurls[links]=urllib2.urlopen(links).getcode()
 print n,
 print links,
 print Upageurls[links]
 t1=time.time()
 print t1-t2
 n+=1
 print ("total is "+repr(n)+" links")
 print time.time()-t
scanpage("http://news.163.com/")

希望本文所述对大家的Python程序设计有所帮助。

文档

python提取页面内url列表的方法

python提取页面内url列表的方法:本文实例讲述了python提取页面内url列表的方法。分享给大家供大家参考。具体实现方法如下: from bs4 import BeautifulSoup import time,re,urllib2 t=time.time() websiteurls={} def scanpage(url): websiteurl
推荐度:
标签: 页面 提取 python
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题
Top