十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
SEO说到底是一种营销方式,基本的游戏规则包括三点。
创新互联于2013年开始,是专业互联网技术服务公司,拥有项目网站设计、做网站网站策划,项目实施与项目整合能力。我们以让每一个梦想脱颖而出为使命,1280元新市做网站,已为上家服务,为新市各地企业和个人服务,联系电话:18980820575
1.在搜索用户中发现自己的目标用户,
2.将搜索用户拉到自己网站来,
3.将搜索用户变成自己的用户。
【在搜索用户中发现自己的目标用户】
目标用户的界定,实际上是一种匹配。搜索用户信息检索需求表现为搜索用的词,而作为网站可以提供什么信息服务,则由自身的业务和内容生产能力来决定。这个匹配过程,其实就是了解自身,用自身的特性,去框搜索用户的过程。最终的产出将是一个符合自己业务的搜索关键词库。
那么,这个关键词库如何来? 基本的关键词获取方式大家都知道,无非是自身,搜索引擎,竞品。包括但不限于以下方式:
1.自身商品或者服务相关的名词,品牌词,属性词等等;
2.站内搜索词;
3.自己的网站在搜索引擎获得曝光和流量的词;
4.百度相关搜索词;
5.百度凤巢扩词接口扩出来的词;
6.百度指数中的相关词;
7.竞品站点上结构化的数据;
8.上述关键词切词后获得的词;
关键词的导入与数理是一个繁杂的工作,也会伴随着对于自身业务的理解,对于搜索用户的了解,而不断完善。最终的产出,将是一个持续流入的关键词库,关键词有明确的词性界定,关键词之间有多维的关系。
另外,最好还需要有关键词搜索量与竞争难度等信息。关键词的整理也是一件有趣的事情,一切有效的商业行为都是为了满足人的需求,而研究关键词,就是在研究需求。了解需求,满足需求,是一个小的闭环。
关键词库的整理有些可以通过系统化的方式来实现,比如站内搜索词的导入,百度相关搜索词的抓取,利用凤巢接口获得凤巢扩词,以及切词,词性定义等等。由于与业务紧密耦合,还是有很多非结构化的事情,需要结合人工处理。慢工出细活,在关键词上花再多时间也是值得的,就像商店想卖东西,需要琢磨客户需求,再去迎合客户类似。
实际上,对于用户需求的挖掘,可以从很多地方找到应用。比如广告投放中,DMP公司从事的就是用户特征提取分析的工作,数据用来供广告投放做到精准营销;再如站内的精准化推荐,根据系统track到的用户行为,给用户做相关推荐,等等。
更好的了解目标用户的需求是成功的第一步,对于SEO而言,就是建一个好的词库。有了词库,才能明确需要推动什么信息的生产,来满足搜索用户的检索需求,有了词的关系,才能更好的构建页面内的信息维度,才能更好的布局内链,集聚相关语义的权重。
【在搜索结果页中触达用户】
很多SEO的初学者会问,学好SEO需要看什么书? 搜索结果页(SERP,SearchEngine Result Page)就是学习SEO最好的资源。由于搜索引擎的算法持续更新,所以搜索结果页才能告诉你当前什么样的做法更能获得好的排名,哪类词商业化很严重,靠纯SEO很难获得流量,等等。毕竟事实胜于一切。
SEO的基本套路无非是对搜索引擎的程序更加友好,满足搜索用户的信息检索需求,给搜索用户更好的体验。
当然也不乏一些黑帽或者擦边的做法,比如利用搜素引擎的一些规则漏洞快速提升排名,最典型的是贻害无穷的点击器;或者利用与搜索引擎的关系做些阿拉丁投放,阿拉丁的特征很明显,搜索结果条目的样式有result-op字样,电商行业曾经与百度合作过的百度微购也属于阿拉丁的范畴;再或者与百度进行换量之类,不过这需要关系和渠道。
抛开上述这些资源和渠道的影响外,回归到SEO的基本套路上来,目标就是要尽可能多的占到搜索结果页的前几位,这样才能实现触达用户的目标。那么问题就变成了如何更多的接近我们的用户呢?
【抓取与收录】
搜索结果页是站点之间竞争用户的战场,要想在竞争中获胜,首先你得站到战场上去。根据之前说到的搜索引擎的原理,我们知道,要在搜索结果页中出现,首先生产的页面要被搜索引擎的蜘蛛抓取。蜘蛛发现网页,正常情况下是通过站内的链接,和站外的链接,按照广度优先的原则,提取页面中导出的URL。一般来说,站长还可以通过提交Sitemap,Ping通知蜘蛛,手动提交等方式,帮助蜘蛛发现有效的URL。
前面说到,通过链接抓取网页,按照广度优先的原则。一般的小站,搜索引擎从起点页抓取三四层的深度也就不错了,一般这个起点页都是网站首页。所以SEO要将网站整体设计成扁平的结构,有些时候需要为蜘蛛搭一些梯子,帮助它在较短路径上接触到更多的URL。
一般情况下,一个页面内导出链接不能过多,超过某个值蜘蛛就不抓了。之前的经验是100,但是这个数值还是跟网站和具体页面有关。在网站层级和单页导出链接总量两个约束条件下,还有一点文章可做,那就是时间。单个页面导出链接最多是100,如果我每天换掉其中的50个呢?
一个最简单的实现方式是借助于缓存机制,固定的取50个,另外再在全集中随机取50个,这50个设置缓存时间1天,1天后失效,再随机取50个,这样可以最大化导出链接的时效性,就像广告的分时段轮播一样。这里的数字可以根据实效进行调整。站内如此,对于批量交换的外链,也可以按照类似的方式实现。
对于移动页面,有两种主要的机制通知到蜘蛛PC页与移动页的对应关系,一是在PC页头部加上mobile-agent的meta属性,二是在站长工具提交PC/移动页对应关系的正则(也可以提交全量的URL地址对)。
抓取这个环节至关重要,站长平台的抓取频次,和通过accesslog分析得到的抓取明细,都需要时刻监控。小站的log文件,市面上有些一些日志分析工具,自己写也OK。对于大站的log,很多都存储于hadoop这样的分布式存储上,一般需要定制程序去分析处理。为了即时分析处理,快速反馈,可能需要接入流式计算框架(kafka+storm)。
对于蜘蛛抓取行为数据的使用,可以用来评估蜘蛛对于站内页面价值的评定,可以用来反馈辅助抓取所做的一些优化的效果,可以预估新生成页面被搜索引擎接受的程度,等等。没有使用价值的数据是没用的,数据跟具体的应用场景结合起来,才能体现其价值。
对于抓取的页面,蜘蛛建立倒排索引后,会进行价值判定,按照价值高低,存储在分级索引库中。高级别的索引库才会参与最终的搜索排序。
一般SEO开始学的时候,都会接触到site语法,基本上所有常见的搜索引擎也都支持site语法去查询域名或者目录级的收录量查询。在site查询语句的后面加上一个词,可以查询得到该域名与这个词相关的页面。比较有价值的是,site语法查出来的结果,按照网页的价值倒序排列。这个特征便使得依据相关性内链,提升第二页/第三页落地页的排名成为可能。
【排名与流量】
对于有搜索量的词,获得好的排名,几乎确定了能获得流量。这里说几乎,因为还有一个点展比(点击量除以曝光量)的概念。按照谷歌的规律,PC搜索结果中,前四位获得点击的几率是42%,12%,9%,6%。
先说排名。说到搜索排序,有很多场景下可以用到,比如在搜索结果页中的推广链接区域有个排序;在淘宝里面搜索,商品返回的结果列表有个默认的排序;App Store中搜索也会按照一定的规则返回结果列表;同样的,在广告投放中候选广告创意去竞争一个展示机会时也有一个排序。这些排序与自然搜索的排序有一个共同点,即为了用户体验,将最好的,最符合用户需求的排在前面,从而提升用户体验。
影响自然搜索排序的因子应该很多,众所周知的,如网站自身的权威性与价值,网页的导入链接权重,网页结构/速度,网页内容的原创性,以及最重要的,用户搜索词的出现频次,页面Title与H标签中出现搜索词的频次,等等。这是事前的因素。
有一点特别要提及的,搜索引擎为了构建良好的搜索竞争生态,对新站有个补偿机制。这也是实际有效的排序因子。
还有一点事后的因素,获得排名,用户点击,之后是否还点击了别的搜索结果。如果你的页面排在某个词的搜索结果第一位,搜索用户点击了你以后,还总会点击第二位的结果,那显然第二位的结果更符合用户需求,排序如何变化可想而知。这点可以从百度公开的专利中找到依据,点击器也是利用这个原理来实现的。
获得排名的搜索结果,展现给用户的信息包括,页面Title,Description或者页面内提取的信息摘要,缩略图,首页的子链接。后面两者可能有,也可能没有。还有一个相对次要的因素,搜索结果的域名/链接摘要。如何在获得曝光的情况下,吸引用户点击? 除了让自己的排名尽量靠前外,可以做的事情还包括,优化Title/Description的文案,在页面主体区域提供合适尺寸的图片增加被作为缩略图的几率等。
经过了关键词,内容,页面,抓取,索引/收录,排名,流量,这个漫长的链条,我们再回头来看封面上的漏斗模型,可以从中反思,我们的短板在哪里,机会又在哪里。如果将这些数据汇集在一起,随时利用这个数据链去监控网站的SEO状况,利用数据对一些优化操作进行效果监控,甚至通过定义一些自动化的策略,使得系统自己可以实施一些优化操作,并利用数据反馈,再调整,再优化,实现智能优化,真正发挥数据的威力。
【流量到转化】
SEO流量获取的问题解决以后,就要考虑怎么去承接这些流量了。与广告类似,流量的目的一般是两个,品牌曝光,直接效果。品牌曝光一般难于做效果监控,所以本篇主要聊直接效果。
实际上,承接的效果如何,对于获取流量的能力又有很大的影响。外部来说,内容不满足搜索用户的需求,跳出率高,搜索引擎里面的排名会掉。内部来说,老板看的是最终目标,曝光量大,转化多,成单多,可以让老板更重视SEO,给更多资源,有了资源,就可以更好的做SEO,从而形成一个良性循环。
以直接效果为目标的流量,转化可能受到四个因素的影响,
1.流量的质量,或者说流量背后的用户跟自身需要服务的用户的重叠程度,把不相干的流量引来,可能是做无用功,用术语说,就是要做到精准营销;
2.用户触达站点时对于有几分信任,有信任作为背书,往往转化也会高些,比如知名品牌的官网往往转化会高,搜索一般的商品品牌/店铺名的流量,本身对目标有认知,转化也会高一些;
3.自身提供的产品或者服务本身的特性,有些情况下用户决策很快,比如单价较低的,标准化的东西的购买,这种比较容易形成转化;
4.给用户第一眼看到的内容,就电商这个行业来说,页面上展现相关的促销信息,或者提供给用户更多的选择机会,则会有更高的概率转化,比如列表页优于单页。
不同的行业/不同的承载方式(网站/APP/微信/淘宝店/自媒体等),有不同的流量获取渠道和方式,不同渠道的流量占比也会各有不同。
整站的整合营销,考虑的是整体的ROI,有些时候为了配合大规模的促销活动,也会放低ROI的标准,因为高转化的优质流量毕竟是有限的。当然,调节的细部手段还有提高网盟CPS结算的返点,与搜索引擎等流量入口达成临时合作等等。可能有些未尝试过的流量,可以少量测试,总的策略是确保总量的前提下,提高总体ROI,可以用CPA或者CPS的方式做内部衡量。
【流量跟踪】
最后简单说说Track。我们一般统计流量,会用GA,百度统计,CNZZ,51.la之类的统计工具,或者模仿这些工具,自己做个流量track系统。对于外投的流量渠道,往往根据链接参数中的track码来区分来路,相对常见的是GA中定义的一套。
当然,如果你不喜欢,你可以自己搞一套,比如tracker_u这样奇怪的东东。
对于用户进入站内以后的行为,会根据用户session存活周期,或者cookie埋的guid之类来监控。页面上埋js代码,用户页面跳转或者点击页面内元素的动作,都会被js发送到后台数据库,作为后续分析的依据。对于效果类流量的效果反馈,最直接的就是比如下载,订阅,或者加购物车,成单之类。
数据驱动的决策是科学的,拍脑袋依靠经验做的决策是耍流氓。所以说,流量之后,用户进入站点以后的行为的数据采集,不仅仅对于流量效果是个反馈,同时在站内进行精准推荐,或者在不违反用户隐私的前提下,将数据加工后,以类似于DMP的方式放到ADX中进行售卖,也是变现的一种方式。