十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
本篇文章为大家展示了使用Python怎么实现一个多线程爬虫功能,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
创新互联公司坚持“要么做到,要么别承诺”的工作理念,服务领域包括:成都做网站、网站设计、外贸营销网站建设、企业官网、英文网站、手机端网站、网站推广等服务,满足客户于互联网时代的乌当网站设计、移动媒体设计的需求,帮助企业找到有效的互联网解决方案。努力成为您成熟可靠的网络建设合作伙伴!import os import requests from bs4 import BeautifulSoup
# 多线程程序需要用到的一些包 # 队列 from queue import Queue from threading import Thread
解释器 python3.6
编辑器 pycharm专业版 激活码
# 多线程类 class Download_Images(Thread): # 重写构造函数 def __init__(self, queue, path): Thread.__init__(self) # 类属性 self.queue = queue self.path = path if not os.path.exists(path): os.mkdir(path) def run(self) -> None: while True: # 图片资源的url链接地址 url = self.queue.get() try: download_images(url, self.path) except: print('下载失败') finally: # 当爬虫程序执行完成/出错中断之后发送消息给线程 代表线程必须停止执行 self.queue.task_done()
# 爬虫代码 def download_images(url, path): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36' } response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'lxml') img_list = soup.find_all('img', class_='ui image lazy') for img in img_list: image_title = img['title'] image_url = img['data-original'] try: with open(path + image_title + os.path.splitext(image_url)[-1], 'wb') as f: image = requests.get(image_url, headers=headers).content print('正在保存图片:', image_title) f.write(image) print('保存成功:', image_title) except: pass if __name__ == '__main__': _url = '/tupian/20230522/{page}.html& urls = [_url.format(page=page) for page in range(1, 201)] queue = Queue() path = './threading_images/' for x in range(10): worker = Download_Images(queue, path) worker.daemon = True worker.start() for url in urls: queue.put(url) queue.join() print('下载完成...')
上述内容就是使用Python怎么实现一个多线程爬虫功能,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。