快上网专注成都网站设计 成都网站制作 成都网站建设
成都网站建设公司服务热线:028-86922220

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

python3爬虫中BeautifulSoup怎么用

小编给大家分享一下python3爬虫中BeautifulSoup怎么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

创新互联公司主营大庆网站建设的网络公司,主营网站建设方案,app软件开发公司,大庆h5小程序制作搭建,大庆网站营销推广欢迎大庆等地区企业咨询

有些朋友觉得利用正则表达式提取信息太麻烦了。

有一个高效的网页解析库,它的名字叫做BeautifulSoup

它支持多种格式的解析,我们用的比较多的是lxml解析器

实例学习

html_doc = """
学习python的正确姿势

小帅b的故事

有一天,小帅b想给大家讲两个笑话 一个笑话长, 一个笑话短 , 他问大家,想听长的还是短的?

...

导入库,将 html 的源代码传给 BeautifulSoup from bs4 import BeautifulSoup soup=BeautifulSoup(html_doc,"lxml") 打印title标签内容 print(soup.title.string) 打印p标签内容,只打印了第一个 print(soup.p.string) 打印title标签的父亲标签 print(soup.title.parent.name) 打印a标签,只打印了第一个 print(soup.a) 使用soup.find方法 打印id为link2的标签 print(soup.find(id="link2")) getText获取全部内容 print(soup.getText) select法 除了find方法之外如果你对css比较熟悉也可以使用 select 方法 打印title标签 print(soup.select("title"))# 打印body标签 print(soup.select("body a")) 打印p标签中,id为link1的那一个 print(soup.select("p #link1"))

以上是“python3爬虫中BeautifulSoup怎么用”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!


文章标题:python3爬虫中BeautifulSoup怎么用
URL链接:http://6mz.cn/article/jsiddp.html

其他资讯