快上网专注成都网站设计 成都网站制作 成都网站建设
成都网站建设公司服务热线:028-86922220

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

Python爬虫如何正则表达式-创新互联

创新互联www.cdcxhl.cn八线动态BGP香港云服务器提供商,新人活动买多久送多久,划算不套路!

创新互联长期为上千多家客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为赫章企业提供专业的成都网站建设、成都网站设计,赫章网站改版等技术服务。拥有十余年丰富建站经验和众多成功案例,为您定制开发。

今天就跟大家聊聊有关Python爬虫如何正则表达式,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。

爬虫——爬虫中使用正则表达式

下面我们尝试爬取内涵段子网站:http://www.neihan8.com/article/list_5_1.html

打开之后,当你进行翻页的时候,不难注意到,url地址的变化:

第一页url: http: //www.neihan8.com/article/list_5_1 .html

第二页url: http: //www.neihan8.com/article/list_5_2 .html

第三页url: http: //www.neihan8.com/article/list_5_3 .html

第四页url: http: //www.neihan8.com/article/list_5_4 .html

这样,我们把url规律找到了,要想爬取所有的段子,只需要修改一个参数即可。下面,我们就开始一步一步将所有的段子爬取下来。

第一步:获取网页数据(网页上全部内容)

1.按照我们之前的用法,我们需要写一个加载页面的方法。

这里我们定义一个类,将url请求作为一个成员方法处理。

我们创建一个duanzi_spider.py文件。

然后定义一个Spider类,并且添加一个加载页面的成员方法。

#!/usr/bin/python3
# -*- coding:utf-8 -*-
 
import requests
 
class Spider(object):
    """
    一个爬虫类
    """
    def loadPage(self, url):
        """
        下载指定url页面的内容
        :return:
        """
        # User-Agent头
        header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
        Chrome/39.0.2171.71 Safari/537.36'}
        response = requests.get(url = url, headers = header)
        html = response.content.decode("gb18030")
         
        # 打印页面内容
        print(html)
         
        # 返回页面内容
        return html

2.写main函数测试loadPage()方法

if __name__ == '__main__':
    # 实例化类对象
    my_spider = Spider()
    # 让用户输入需爬取页面的页码
    page = int(input("请输入你需要爬取的页码:"))
    # 拼接用户需爬取页面的url地址
    url = "http://www.neihan8.com/article/list_5_{}.html".format(page)
    html = my_spider.loadPage(url)

第二步:筛选数据

我们已经得到了整个页面的数据。但是,里面有很多内容我们并不需要,所以下一步我们需要对上面爬取的内容进行筛选。如果筛选,这里就用到了我们前面讲到的正则表达式。

首先

import re

然后:在我们得到的html中进行筛选匹配。

我们需要一个匹配规则:

 我们可以打开内涵段子的网页,鼠标点击右键“查看源代码”,你会发现,我们需要的每个段子的内容都是在一个

标签中,而且每个div都有一个属性class="f18 mb20"。

所以,我们只需要匹配到网页中所有

的数据就可以了。

根据正则表达式,我们可以推算出一个公式是:

(.*?)

这个表达式实际上就是匹配到所有div中class="f18 mb20"里面的内容

然后将这个正则应用到代码中,我们会得到以下代码:

#!/usr/bin/python3
# -*- coding:utf-8 -*-
 
import requests
import re
 
class Spider(object):
    """
    一个爬虫类
    """
    def loadPage(self, url):
        """
        下载指定url页面的内容
        :return:
        """
        # User-Agent头
        header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
        Chrome/39.0.2171.71 Safari/537.36'}
        response = requests.get(url = url, headers = header)
        html = response.content
 
        return html.decode("gb18030")
 
    def screenPage(self, html):
        """
        筛选html内容,返回列表
        :param html:
        :return:
        """
        # ...
        pattern = re.compile(r'(.*?)
', re.S)         item_list = pattern.findall(html)           return item_list   if __name__ == '__main__':     # 实例化类对象     my_spider = Spider()     # 让用户输入需爬取页面的页码     page = int(input("请输入你需要爬取的页码:"))     # 拼接用户需爬取页面的url地址     url = "http://www.neihan8.com/article/list_5_{}.html".format(page)     # 下载网页内容     html = my_spider.loadPage(url)     # 筛选数据     item_list = my_spider.screenPage(html)

这里需要注意的是re.S是正则表达式中匹配的一个参数。

如果没有re.S,则是只匹配一行中有没有符合规则的字符串,如果没有则下一行重新匹配。

如果加上re.S则是将所有的字符串作为一个整体进行匹配,findall将所有匹配到的结果返回列表中。

第三步:保存数据

我们可以将所有的段子存放在文件中。

def writePage(self, list):
    """
    以追加的形式存储筛选后的内容
    :param list: 筛选后的数据,列表形式
    :return:
    """
    with open(self.file_name, "a", encoding = "utf-8") as f:
        for content in list:
            # 段子内容:因为段子中有很多

。。。,还有一些转义字符。在这里作下替换             content = content.replace("…", "…").replace("“", "“").replace("”", "”")             content = content.replace(" ", "").replace("\t", "").replace(":", ":")             content = content.replace("

", "").replace("

", "").replace("", "").replace(" ", "")             content = content.replace("\u3000", "").replace("\r\n\r\n", "\r\n")             content = content.strip()               # 写入一个段子的内容             f.write(content)             # 我是分割线             f.write("*" * 30)

第四步:完整的程序

#!/usr/bin/python3
# -*- coding:utf-8 -*-
 
import requests
import re
 
class Spider(object):
    """
    一个爬虫类
    """
    def __init__(self, start_page, end_page):
        """
        类的初始化函数
        :param start_page:
        :param end_page:
        :return:
        """
        self.start_page = start_page
        self.end_page = end_page
        self.file_name = "duanzi.txt"
 
    def loadPage(self, url):
        """
        下载指定url页面的内容
        :return:
        """
        # User-Agent头
        header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) 
        Chrome/39.0.2171.71 Safari/537.36'}
        response = requests.get(url = url, headers = header)
        html = response.content
 
        return html.decode("gb18030")
 
    def screenPage(self, html):
        """
        筛选html内容,返回列表
        :param html:
        :return:
        """
        # ...
        pattern = re.compile(r'(.*?)', re.S)         item_list = pattern.findall(html)           return item_list       def writePage(self, list):         """         以追加的形式存储筛选后的内容         :param list: 筛选后的数据,列表形式         :return:         """         with open(self.file_name, "a", encoding = "utf-8") as f:             for content in list:                 # 段子内容:因为段子中有很多

。。。,还有一些转义字符。在这里作下替换                 content = content.replace("…", "…").replace("“", "“").replace("”", "”")                 content = content.replace(" ", "").replace("\t", "").replace(":", ":")                 content = content.replace("

", "").replace("

", "").replace("", "").replace(" ", "")                 content = content.replace("\u3000", "").replace("\r\n\r\n", "\r\n").replace("\r\n", "\n")                 content = content.strip()                   # 写入一个段子的内容                 f.write(content)                 # 我是分割线                 f.write("*" * 30)       def run(self):         """         让爬虫开始工作         :return:         """         # 循环处理我们需要爬取的页面         for page in range(self.start_page, self.end_page + 1):             # 拼接当前页码page的url地址             url = "http://www.neihan8.com/article/list_5_{}.html".format(str(page))             print("正在下载第{}页".format(str(page)))             # 下载url对应的全部内容             html = self.loadPage(url)             # 筛选数据             item_list = self.screenPage(html)             # 存储筛选后的数据             self.writePage(item_list)   # 主函数 if __name__ == '__main__':     # 让用户输入需爬取页面的起始页码     start_page = int(input("请输入您需要爬取的起始页:"))     # 让用户输入需爬取页面的终止页码     end_page   = int(input("请输入您需要爬取的终止页:"))     # 实例化类对象     mySpider = Spider(start_page, end_page)     # 让爬虫开始工作     mySpider.run()

最后,我们执行上面的代码,完成后查看当前路径下的duanzi.txt文件,里面已经有我们要的内涵段子。

以上便是一个非常精简的小爬虫程序,使用起来很方便,如果想要爬取其他网站的信息,只需要修改其中某些参数和一些细节就行了。

看完上述内容,你们对Python爬虫如何正则表达式有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注创新互联-成都网站建设公司行业资讯频道,感谢大家的支持。


当前名称:Python爬虫如何正则表达式-创新互联
分享地址:http://6mz.cn/article/dcospe.html