圆月山庄资源网 Design By www.vgjia.com
本文实例讲述了Python爬虫实现使用beautifulSoup4爬取名言网功能。分享给大家供大家参考,具体如下:
爬取名言网top10标签对应的名言,并存储到mysql中,字段(名言,作者,标签)
#! /usr/bin/python3 # -*- coding:utf-8 -*- from urllib.request import urlopen as open from bs4 import BeautifulSoup import re import pymysql def find_top_ten(url): response = open(url) bs = BeautifulSoup(response,'html.parser') tags = bs.select('span.tag-item a') top_ten_href = [tag.get('href') for tag in tags] top_ten_tag = [tag.text for tag in tags] # print(top_ten_href) # print(top_ten_tag) return top_ten_href def insert_into_mysql(records): con = pymysql.connect(host='localhost',user='root',password='root',database='quotes',charset='utf8',port=3306) cursor = con.cursor() sql = "insert into quotes(content,author,tags) values(%s,%s,%s)" for record in records: cursor.execute(sql, record) con.commit() cursor.close() con.close() # http://quotes.toscrape.com/tag/love/ #要获取对应标签中所有的名言 所以这里要考虑分页的情况 #经过在网页上查看知道分页查询的url #http://quotes.toscrape.com/tag/love/page/1/ #判断到那一页没有数据 div.container div.row [1] def find_link_content(link): page = 1 while True: new_link = "http://quotes.toscrape.com" + link + "page/" # print(new_link) new_link = new_link + str(page) print(new_link) sub_bs = open(new_link) sub_bs = BeautifulSoup(sub_bs,'html.parser') quotes = sub_bs.select('div.row div.col-md-8 span.text') # 如果没有数据就退出 if len(quotes) == 0: break #名言 quotes = [quote.text.strip('“”') for quote in quotes] #作者 authors = sub_bs.select('small.author') authors = [author.text for author in authors] # 标签 tags_list = sub_bs.select('meta.keywords') tags_list = [tags.get('content') for tags in tags_list] # print(authors) # print(quotes) #print(tags_list) record_list = [] for i in range(len(quotes)): tags = tags_list[i] tags = tags.replace(',',',') print(tags) record = [quotes[i],authors[i],tags] record_list.append(record) insert_into_mysql(record_list) page += 1 # def main(): url = "http://quotes.toscrape.com/" parent_link = find_top_ten(url) for link in parent_link: print(link) find_link_content(link) if __name__ == '__main__': main()
更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
圆月山庄资源网 Design By www.vgjia.com
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
圆月山庄资源网 Design By www.vgjia.com
暂无评论...
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新日志
2024年11月05日
2024年11月05日
- 雨林唱片《赏》新曲+精选集SACD版[ISO][2.3G]
- 罗大佑与OK男女合唱团.1995-再会吧!素兰【音乐工厂】【WAV+CUE】
- 草蜢.1993-宝贝对不起(国)【宝丽金】【WAV+CUE】
- 杨培安.2009-抒·情(EP)【擎天娱乐】【WAV+CUE】
- 周慧敏《EndlessDream》[WAV+CUE]
- 彭芳《纯色角3》2007[WAV+CUE]
- 江志丰2008-今生为你[豪记][WAV+CUE]
- 罗大佑1994《恋曲2000》音乐工厂[WAV+CUE][1G]
- 群星《一首歌一个故事》赵英俊某些作品重唱企划[FLAC分轨][1G]
- 群星《网易云英文歌曲播放量TOP100》[MP3][1G]
- 方大同.2024-梦想家TheDreamer【赋音乐】【FLAC分轨】
- 李慧珍.2007-爱死了【华谊兄弟】【WAV+CUE】
- 王大文.2019-国际太空站【环球】【FLAC分轨】
- 群星《2022超好听的十倍音质网络歌曲(163)》U盘音乐[WAV分轨][1.1G]
- 童丽《啼笑姻缘》头版限量编号24K金碟[低速原抓WAV+CUE][1.1G]