十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
#!/usr/bin/python3 #coding=UTF-8 import requests from bs4 import BeautifulSoup ''' 需求:【python小项目】抓取编程网收费vip文章的非vip用户观看界面的url! 例如收费文章http://c.biancheng.net/view/vip_6005.html对应非收费地址是http://c.biancheng.net/view/5315.html这个网站总是有一些vip文章 但是vip文章通过百度标题是可以搜索到的,我想爬取所有这样的文章标题和网页的地址!后期看到一个vip文章,你可以通过检索标题得到非vip的观看链接地址 编写日期:2019-10-18 作者:xiaoxiaohui 说明:python3程序 而且最好在linux运行 windows下有gbk那个编码问题 ''' def get_biaoti(url): response = requests.get(url) response.encoding='utf-8' #如果不设置成utf8则中文乱码或者报错 参考https://www.cnblogs.com/supery007/p/8303472.html soup = BeautifulSoup(response.text,'html.parser') links_div = soup.find_all('h2') return links_div[0].text f = open("a1.txt", 'a') for yema in range(1,500): url = 'http://c.biancheng.net/view/'+str(yema)+'.html' biaoti = get_biaoti(url) print(url,biaoti) f.write(url+'\t'+biaoti+'\n') f.close()
创新互联服务项目包括日照网站建设、日照网站制作、日照网页制作以及日照网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,日照网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到日照省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!
运行结果、收集到的文章和url对应关系截图:
自己学到的:
这次学到的 原来我的爬虫都是爬某个div的,都是links_div = soup.find_all('div',class_="listpic"), 原来也可以直接links_div = soup.find_all('h2'),也就是带一个参数这样的