最新文章专题视频专题问答1问答10问答100问答1000问答2000关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
当前位置: 首页 - 科技 - 知识百科 - 正文

将爬取数据存入mysql

来源:动视网 责编:小采 时间:2020-11-27 14:14:48
文档

将爬取数据存入mysql

将爬取数据存入mysql:Python 与 mysql 数据连接 用pymysqlimport pymysql conn =pymysql.connect(host='127.0.0.1',user='root',password='123456',db='company',charset="utf8&q
推荐度:
导读将爬取数据存入mysql:Python 与 mysql 数据连接 用pymysqlimport pymysql conn =pymysql.connect(host='127.0.0.1',user='root',password='123456',db='company',charset="utf8&q
 Python 与 mysql 数据连接 用pymysql

import pymysql



conn =pymysql.connect(host='127.0.0.1',user='root',password='123456',db='company',charset="utf8")

cur=conn.cursor()
sql=‘’‘

’‘’employee=cur.execute(sql) conn.commit() cur.close() conn.close()

基本操作大概就这样
这次爬取的是淘宝商品页面

过程就略了放代码

import requestsimport reimport pymysqldef getHTMLtext(url): try:
 r=requests.get(url,timeout=100)
 r.raise_for_status()
 r.encoding=r.apparent_encoding return r.text except: return ""def getpage(itl,html): try:
 plt=re.findall(r'"view_price":"[d.]*"',html)
 nlt=re.findall(r'"raw_title":".*?"',html) for i in range(len(plt)):
 price = eval(plt[i].split(':')[1])
 title = eval(nlt[i].split(':')[1])
 itl.append([price, title]) except: print("")def printgoods(itl):
 tplt = "{:2}	{:8}	{:16}"
 print(tplt.format("序号", "价格", "商品名称"))

 count = 0
 conn = pymysql.connect(host='127.0.0.1', user='root', password='123456', db='company',charset="utf8")

 cur = conn.cursor()

 sqlc = '''
 create table coffee(
 id int(11) not null auto_increment primary key,
 name varchar(255) not null,
 price float not null)DEFAULT CHARSET=utf8; '''

 try:
 A = cur.execute(sqlc)
 conn.commit() print('成功') except: print("错误") for g in itl:
 count = count + 1
 b=tplt.format(count, g[0], g[1])



 sqla = '''
 insert into coffee(name,price)
 values(%s,%s); '''
 try:
 B = cur.execute(sqla,(g[1],g[0]))
 conn.commit() print('成功') except: print("错误") # save_path = 'D:/taobao.txt'
 # f=open(save_path,'a')
 # # f.write(b+'
')
 # f.close()
 conn.commit()
 cur.close()
 conn.close()def main():
 goods="咖啡"
 depth =2
 start_url='https://s.taobao.com/search?q='+goods
 List =[] for i in range(depth): try:
 url =start_url +"&s="+ str(i*44)
 html=getHTMLtext(url)
 getpage(List,html) except: continue


 print(printgoods(List)) # savefiles(data)main()

可以看到所需要的数据已经存入数据库了

文档

将爬取数据存入mysql

将爬取数据存入mysql:Python 与 mysql 数据连接 用pymysqlimport pymysql conn =pymysql.connect(host='127.0.0.1',user='root',password='123456',db='company',charset="utf8&q
推荐度:
标签: 数据 数据库 mysql
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题
Top