十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
这篇文章主要介绍了python requests抓取one推送文字和图片代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
站在用户的角度思考问题,与客户深入沟通,找到将乐网站设计与将乐网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:成都做网站、成都网站设计、企业官网、英文网站、手机端网站、网站推广、域名与空间、网络空间、企业邮箱。业务覆盖将乐地区。requests是Python中一个第三方库,基于 urllib,采用 Apache2 Licensed 开源协议的 HTTP 库。它比 urllib 更加方便,可以节约我们大量的工作,完全满足 HTTP 测试需求。接下来将记录一下requests的使用:
from bs4 import BeautifulSoup from lxml import html import xml import requests #下载图片函数 def download_img(url,name): """" 下载指定url的图片 url:图片的url; name:保存图片的名字 """ try: respone = requests.get(url) f_img = respone.content path = r'C:\Users\86131\Desktop\itchat\send_file\images\\%s.jpg'%(name) with open(path, "wb")as f: f.write(f_img) except Exception as e: print("---------地址出错------------") url_list = [] f = requests.get("http://wufazhuce.com/") # #打印网页内容 # print(f.content.decode()) soup = BeautifulSoup(f.content,"lxml") try: first_div = soup.find("div",attrs={'id':'main-container'}).find('div',attrs={'class':'carousel-inner'}) a_all = first_div.find_all('a') for i in a_all: url_list.append(i.attrs['href']) except Exception as e: print("---------出错------------") #得到one的首页推荐页面 f_1 = requests.get(url_list[0]) #打印网页内容 # print(f_1.content.decode()) soup_1 = BeautifulSoup(f_1.content,"lxml") try: second_div = soup_1.find("div",attrs={'id':'main-container'}).find('div',attrs={'class':'one-cita-wrapper'}) third_div = soup_1.find("div",attrs={'id':'main-container'}).find('div',attrs={'class':'one-imagen'}) #获得时期值 now_month = second_div.find('p',attrs={'class':'may'}).text now_one_day = second_div.find('p',attrs={'class':'dom'}).text #获得图片的url img_url = third_div.find('img').attrs['src'] #获得一段话并去除开头的空格 one_text = second_div.find("div",attrs={'class':'one-cita'}).text.strip() #将获得日期拼接 now_day = now_one_day +' '+ now_month #调用函数下载图片 download_img(img_url, now_day) except Exception as e: print("---------出错------------")