十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
用正在表达式很容易做到,看我下面的例子程序:
创新互联公司专注于仙游网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供仙游营销型网站建设,仙游网站制作、仙游网页设计、仙游网站官网定制、成都微信小程序服务,打造仙游网络公司原创品牌,更为您提供仙游网站排名全网营销落地服务。
?php
$str='div
class="content"--采集的内容--/div';
if (preg_match('|div\s[^]*(.*?)/div|s',$str,$reg)) echo $reg[1];
?
例子程序调试通过。
问题其实不难,自己都能写。给你几个思路吧:
1.在百度知道中,输入linux,然后会出现列表。复制浏览器地址栏内容。
然后翻页,在复制地址栏内容,看看有什么不同,不同之处,就是你要循环分页的i值。
当然这个是笨方法。
2.使用php的file或者file_get_contents函数,获取链接URL的内容。
3.通过php正则表达式,获取你需要的3个字段内容。
4.写入数据库。
需要注意的是,百度知道有可能做了防抓取的功能,你刚一抓几个页面,可能会被禁止。
建议也就抓10页数据。
其实不难,你肯定写的出来。 还有,网上应该有很多抓取工具,你找找看,然后将抓下来的数据
在做分析。写入数据库。
php数据采集常见技术要领:
1、熟练正则表达式提取数据技术:提取内容关键步骤
2、熟练字符编码转换分析技术:兼容性管理以及数据有效性控制
3、熟练数据出库入库整理技术:对已采集内容的存储管理,包括数据库以及文件和进度
4、发掘数据以及网站爬行技术:分析网站结构,简化爬行手法,提高效率
5、反反采集处理技术:对于存在反采集的目标对象而设计的反反采集技术
6、多服务器并发采集管理技术:提高效率的工作方法
7、数据整理分析技术:查漏验证数据正确性有效性
8、自我身份保护技术:自身信息的保护
用fopen/file/file_get_contents/curl之类的函数将远程页面获得内容, 采用正则或过滤之类的获得自己所需要的东西, 最好写入相应的数据库保存起来。
可以把循环停了,每次采集只采集一条,然后利用系统命令来实现连续采集的效果,或者每采集一条数据后延时5秒钟,或者根据翻页的页数为延时的时间倍数,例如4页,就是5秒*4,而10页就是5秒*10,这样去采集!
简单的分了几个步骤:
1、确定采集目标
2、获取目标远程页面内容(curl、file_get_contents)
3、分析页面html源码,正则匹配你需要的内容(preg_match、preg_match_all),这一步最为重要,不同页面正则匹配规则不一样
4、入库