今早,一位朋友邀请我回答这个问题,原本想 “哎呀,怎么这么麻烦,又有人问这个相关的事了。”但转念一想,虽然有点过时,我是指在 2017 年 Q2 这个时间再探讨 SEO 相关话题很过时,但不管作为对自己过去很长一段时间所从事工作的总结,还是对有幸能与许多优秀的朋友、同事一起共同创造一些事情的记录和回忆而言,这件事都立刻变得重要起来。关于如何做起来,我多年的同事与好友殷谦祥已经在他的答案:知乎是怎么把 SEO 做起来的?中写的很简单清楚,我来交代下背景以及经过。彼时的知乎目标很明确,增长。但希望获得的流量增长是尽量符合知乎氛围的,比如知乎的朋友会说:“我们希望能够让知乎关于热门科技人物的页面能够在搜索结果页中的展现更加靠前。”但我们感觉事情或许并没这么简单,要知道知乎在相当长一段时间内对蜘蛛都是封闭的态度,但是希望获得排名,就要说到搜索引擎优化工作中的基本概念。逻辑是,页面首先应当先被索引(就是通常提到的收录),才存在被用户发现的可能,那么解决索引量问题成了关键。于是通过与知乎产品同事的沟通,发现现存内容的页面量远远超过被索引量,那么我们规范前端元素为更易于被机器理解的格式,尽可能多的将内容们互相关联起来,这既符合信息架构学、自然用户行为的逻辑,也能够更加方便搜索引擎 robot 的抓取与处理工作。当这部分工作告一段落,索引量提升了100%。接下来我们将工作的重心放在提升已被成功索引的内容排名上,这些事情很枯燥,又密集,一点也不酷, 主要内容就是监控排名,链接建设的循环往复。知乎这个 Case 从 2013 年 3 月开始到 8月结束,大概记得流量增幅是一倍有余。以上,你看 SEO 能做的事很基础,琐碎,不过是信息架构学、用户体验、计算机技术的微小应用交集。
一、与所有内容优秀的站点一样,我们面对的第一件事情,是对站点结构分析:
1、搞清楚了知乎总共有多少页面
2、弄清楚知乎有几种页面类型
3、每种类型的页面分别有多少页
4、每种类型的页面分别承载什么需求
5、每种类型的页面已经收录了多少页,还有多少页没收录
6、每种类型的页面目前有多少次搜索引擎来访,占比谁比较高
7、每种类型的页面搜索引擎蜘蛛抓取情况如何
8、每种类型页面有哪些显著缺陷
二、弄清楚上面每一点之后,有针对性的建立了数据分析,例如:
1、按日期的页面类型流量拆分、环比增长率
2、分页面类型蜘蛛抓取数据、环比增长率
3、新增页面蜘蛛抓取率、收录率
4、特定领域词库监控
等可量化的运营指标。
三、并且有周期性的提出SEO方案,例如:a
1、高价值关键词着陆页挖掘 与 链接建设
2、链接位调整、标签优化、title重要信息前置
3、sitemap
等可以把结果反馈到运营指标的方案。
最后最有意思的,是和技术一起研究了一段时间的分词 和 关键词提取,并小规模的在知乎上尝试了一把,虽然最后并没有找到和知乎产品最合适的接入点,但我想关键词抽取,自动打TAG做聚合,是知乎未来发展的一个很棒的方向。
(本文"知乎是怎么把SEO做起来的"的责任编辑:SEO学堂)