大型网站优化主要针对两个用户:搜索引擎和搜索客户端搜索引擎:以现场为主,大型网站有权重基础,更注重现场优化,主要涉及三个方面:
1、各栏目的收录率及趋势;
2、各个站点链接的连通率,比如某个页面被推荐了多少个其他网页,有多少个栏目页,有多少个内容页,分析连通率和收录率; 3、分析爬虫访问路径与包含关系
客户:
1、我这里把关键词分析放在用户端,分析转化率高低的关键词,对关键词进行分类寻找共性,分析转化率为什么高或者低,作为后喜关键词优化策略; 2、分析用户访问路径,哪些页面用户跳出率高或者最终成交,分析他们跳出的原因,找出是内容问题还是产品问题,然后进行优化;
夜景:
从运营角度来看:
1、了解网站的产品(服务也是产品)并且了解得越多越好。
2、了解网站的用户以及他们的习惯(搜索引擎也是用户的一类。
3. 了解您拥有多少资源(人员、内容、设计、技术)。
4、根据用户习惯和资源,制定并执行网站优化和填充计划。
从技术角度来说:
1. 将影响 SEO 的一切数字化。
2、根据数据制定计划并实施
附:影响SEO的绝对不是外部链接数量或者原创文章数量决定的。至于影响SEO的因素有多少,就看每个人的思维能力和每个网站的情况了。
刘焕斌的观点:
大型网站的SEO系统很大程度上依赖于数据挖掘和分析,99%的工作都是现场优化。如何有效分析深度挖掘的数据并将其分发到执行流程。
通过分析搜索引擎关键词数据,我们可以有效规划网站结构和内容建设方向。
通过对站内搜索的关键词数据分析,我们可以快速推出用户需要的内容。
创建有效的目标关键词数据库,可以定期检测关键词排名表现以及与竞争对手的差距。
数据挖掘和分析的工作是持续不断的,SEO任务的分配基本来自于这个团队。
下一步是产品发布的过程,包括发布专栏、主题或页面。涉及的方面如下: 1、标题书写规范。
2. 正文审核,基于SEO的修正,以及内链设置规范。

3.发布后,该页面与其他页面相关。
设立这个流程,应该找一个有实战经验的SEO来规划,把每个阶段的工作分解,然后下达执行规范,让人高效执行。
异常情况的处理也非常重要。
网站改版、宕机、采集异常、流量异常、意外损坏的处罚。大多数网站都会面临这些突发的异常问题。关键时刻的决策往往非常重要,处理方法必须要快,才能将损失降到最低。
从低层次来说,对外交流与合作或多或少可以促进对外联系的建设。外部合作沟通可以及时了解外部的最新信息,比如一些信息的更新、策略的变化等,让团队不断学习。
另外,需要与搜索引擎厂商建立沟通机制,尤其是大型网站。
零经验分享(本人曾为赶集知乎等十多个日均UV超万的网站做过SEO)。大型网站比较常用,但流量越大,分析的时间跨度就越长,采样率往往小于0.1%。这个数据是骗人的。嗯……整体趋势有时不准确,别说细分和过滤,总是很糟糕。
有时候看到流量变化,不是自己的问题,也不是百度的问题,而是统计错误……从日志中,我们剥离出爬虫和SEO访客,搭建一个简单的数据分析平台。系统首先要保证可以查看日期趋势。我承认我开发的主要动机是愚蠢的报表系统只能很快地查看当天。如果我想看到一个月内的变化,我必须导入数据近30次。我估计半个小时就可以搞定,虽然需要半个GA。分钟。
另外,定期对URL进行过滤也是必要的。我个人认为这是GA这样的统计工具与国内常见的统计玩具最大的区别。
如果能够对流量进行精准的细分,那么SEO的效果就能在一定程度上得到衡量,而不会流于表面。其他辅助物品可以相对滞后吗?
各种页面的爬取细分、页面加载速度细分、收录比例细分、整体排名细分等辅助项。如果想要更精准地控制流量,可以做的还有很多。
国平所说的:SEO流量=收录*排名*点击率其实并不实际。对于很多类型的网站来说,相关关键词搜索量的季节性差异很明显,这往往是影响SEO流量的最大因素。所以最好监控搜索量并将其代入上面的公式。另一个例子是包容性。 100个列表页面的收录和100个内部页面的收录所带来的流量是完全不同的。因此,上述公式只能在页面细分后根据页面类型单独计算。一次需要编写很多代码,但其中一些很容易完成。说起来容易做起来难。事实上,它需要一段代码来实现。到目前为止,只编码了一小部分……数据统计有用吗?例如,比较两列时,包含率较高的那一列必然有其原因。只要能分析(取决于对搜索引擎原理的理解深度等),差的就可以改进。
只要数据完整,有些地方只要看数据就可以改变。但完善数据的道路更加艰难……为了计算采集率,脚本在多台服务器上运行,计算抓取次数、百度站长平台上的人为标记索引数、以及决赛桌全屏图。
虽然发现了一些有价值的问题,但这种纠结的事情还是让人抓狂……田凤林分享自己的经历:
无论是大网站还是小网站,SEO方法都是经过深思熟虑的。无非就是大的网站可以控制更多的资源,但是在执行过程中,也可以进行拆分。大型网站的每个频道都分为两个。每个频道都是一个中小型网站,有内部链接。应该是一个需要重点关注的环节。标签、关键词、URL、内容质量等都是比较基础的,这里就不赘述了。
事情就是这样,手法都是常见的手法。只是摊位更大,团队更大,所以分工更细。主要要求是管理能力、团队合作和项目管理能力,所以建立SEO系统主要就是做这些事情。
下面我就分享一下我之前管理SEO团队的一些经验,希望对大家有一些参考。 (之前知乎上也有人问过我,所以贴在这里,希望能给大家带来一些参考价值)管理人的方法其实适用于一般的团队管理经验,比如:
1.量化、可考核的KPI指标(比如:根据公司今年的年度计划,预计通过搜索实现100万自然流量指标。那么你就得按照这个大的、看似很难实现的目标来分蛋糕,然后将蛋糕分给每个负责的SEO工程师并在具体渠道上实施,然后与他们讨论每个Q针对每个特定块应该达到的流量指标)。
2、有效、实用的激励措施; (目标已基本达到,月/季/年奖金必须与员工落实,包括加薪计划)。
3、关心员工生活。 (解决员工心理问题、女朋友问题、父母身体问题等,有时只需要一句问候)。
4.尊重个性。 (每个工程师的做法可能不一样,所以要多给尝试的机会)。
5.团队成长计划。 (这个是根据部门个人情况而定的,虽然我从2003-04年就开始做SEO了,但是一开始我还是很擅长的,后来其实我觉得这个领域不太有前途,充其量就是只是网站运营的问题,网站推广下的搜索引擎推广只是免费推广下的一个小分支,所以我后来转型到了产品线,试图让网站一诞生就变得搜索友好。友好,以后也不需要改变什么,所以以后如果公司也安排管理SEO团队,我会给员工做一个长期的职业规划,推荐他们去产品线或者工作。线上的事情要根据每个人的情况综合去做,不仅仅是SEO、SEM、社交媒体营销、市场推广等等,都会让他们去尝试,只要能达到目的)。

以上似乎适用于任何团队的管理。如果说到SEO团队独特的管理方式,那就必须根据团队的具体人员和组织架构进行单独管理。
因为SEO并不是一个特别标准化的工作,而且每个公司对它的重视程度,包括领导的工作方式都有很大不同,人员结构差异很大,也和个人想法有关系。先说一下我个人过去比较喜欢的人员架构和分工:
董事——一般可以有一名董事(承担大蛋糕、制定策略和分工的人);经理(工程师)——然后可以陪同几名经理级SEO人员(负责将工作分解并跟进产品)。修改、完善页面的内部结构、内部链接结构、关键词布局、URL策略等,负责频道的编辑、页面制作者、设计师的基础知识培训等),这些无疑是你团队的核心;链路团队——这可以是统一一个大的团队,为所有工程师提供统一的支持,也可以是根据工程师负责的通道和承载的流量大小,为工程师分配不同数量的链路人员。 (主要负责外部链接的建设)曾经进过一家公司,最疯狂的时候链接团队达到了60人。
数据分析师 - 基本上一个人就足够了。他们负责数据的统计和分析,发现哪些数据有问题,及时报警,经常会出一些数据报告之类的。
助理——这个助理主要帮助部门做一些辅助工作,安排会议,编制周报、月报、季报、年报。反正就是让其他负责KPI的人集中精力做一些数据工作,这些工作只能由他来做。体力劳动。
写了这么多,感觉有点想笑。事实上,如果你看看有SEO团队的公司,你会发现这很有趣。 SEO团队有的划归技术部门,有的划归运营部门。这两个也是……毕竟我听过最好笑的一个是放在BD部门下面,营销部门下面的。
所以上面的划分就看你自己的实力了。我认为最基本的配置就是上面的结构。具体人数根据项目规模和承担的事情多少而定。就这么决定了如果你的名气很大,甚至可以派技术人员到你的部门负责流量类产品(也包括搜索)的开发,专门配备BD负责批量链接合作。事实上,这一切都是有道理的。
与其他促销方式相比,这种方式的总体成本是比较低的。如果你能在一段时间内证明你的想法和方法可以在预算内实现目标,你可以向公司申请任何额外的资源。包括改变部门的组织和结构,你还可以成为搜索引擎营销副总裁。这只是一个头衔,让您的团队成员能够与您一起成长。
大型网站 SEO 的十二个步骤:
第一步是设定目标。网站流量增加了一倍、三倍或三倍。
第二步是分解目标:比如每个季度要增加多少流量。
第三步是数据分析。比如要增加100万流量,这100万流量从哪里来,来自网站的哪些页面:内容列表、分离页面、主题页面、问答页面等。
第四步,准备网站SEO的公共要素。通用元素是指所有页面都应该遵循的规范:head、body等必须遵循的通用规范。
第五步是优先考虑短期结果。比如有些词或者页面已经优先出现在第二页或者第三页或者第四页,那么我们就需要优先考虑这些关键词,这样我们的流量也会增加。
第六步,建立流量结构数据池,拆分整个网站流量。搜索品牌词,例如关于、内容 IP 和引导词。非品牌词分为:网站或页面的底层流量。
第七步,做网站最基本的技术优化。例如,网站展示层的数据交互维护了我们产生的内容的生命周期。有时候大型网站在做这一步的时候会陷入死循环。要么产品不统一,要么技术无法落地,所以建议大家根据自己的情况在这一步做一些调整和适配。
第八步,制作一些标准的东西。比如PC端和移动端适配、数据验证、页面优化等,保持整体网页的活力。
第九步,实时查询数据报表,必须是多维度的。例如,一个电子商务网站有 100,000 个详细页面。查询后发现,实际收录的只有6万,剩下的4万,一半是PC端收录,一半是手机端收录。通过数据上报,可以了解哪些需要短期调整,哪些需要长期调整。
第十步,利用所有搜索引擎算法(包括最新的和历史的)进行优化和调整。有些搜索引擎算法是基于内容的,有些是基于链接的,有些是基于用户体验的。常见的算法有企鹅算法、冰桶识别算法、绿萝算法、天网蓝天飓风算法等。
第十一步,根据网站业务的发展方向,做出重点。例如,一个网站可能需要在淡季和旺季期间重点选择一些关键词。
第十二步,及时做一些筛选或者阻断。对于大型网站来说特别重要的一点是,新内容会不断产生,旧内容会不断被淘汰。对于这样的数据,我们需要及时做一些筛选或者屏蔽。