无论您的网站是否构建,您都应关注您的网站并进行优化。
当我们谈论网站的优化,尤其是现场优化时,它实际上主要包括
2个主要方面:
- 一个是页面的SEO(页面)
- 另一个是网站结构优化,也称为技术SEO
随着搜索结果的竞争变得越来越激烈,对SEO的技术优化提出了更高的要求。
表现出色的网站必须是一个可爬网,快速和安全的网站。
技术SEO包含很多内容,涵盖了网站的结构设计,URL,网络图和其他内容,这是一个非常技术性的方面。
今天,我将主要讨论网站技术SEO的六个基本方面。如果您做得很好,那么该网站的性能将更加优化和健康。
许多人可能会发现本章无聊,但实际上非常重要。
为什么?
因为如果您花费大量时间获得流量,例如广告,名人,但没有通过基本文章(考试),那么它将大大增加您网站的营销成本。
想象一个网站,该网站在2秒钟内开放,一个网站在10秒钟内开放。效果会一样吗?
因此,从网站优化的角度,尤其是技术优化的角度,我们需要从以下几点进行优化:
01
确保网站可爬网
为了进行搜索引擎优化,有必要在高质量内容上做得好。但是高质量的内容还不够。如果搜索引擎无法抓取此页面,那么您努力编写的内容不是徒劳的吗?
为了确保网站可爬网,您必须首先检查.txt文件,这是任何网络爬网软件到达网站时的第一个呼叫点。
.txt文件将阐明应爬行并不应爬行的零件,这表现为允许()和禁止()某些用户代理。
.txt文件可以通过在根域的末端添加 /.txt公开使用。让我们来看看网站的示例:
如您所见,该网站不允许以 /WP-(后端网站)开头的URL被爬行。通过指示禁止这些URL的位置,可以节省带宽,服务器资源和爬网预算。
同时,在爬行网站的重要部分时,不应禁止搜索引擎爬网。
因为.txt是爬网时看到的第一个文件,因此最好将.txt指向站点地图。 .txt文件可以在较旧版本中进行编辑和测试。
在.txt测试工具中,在下面的URL栏中输入任何URL,以检查是否可以爬行此URL,以及.txt文件中是否存在错误和警告。
由于旧版本的功能比新版本更多,因此在技术SEO方面,旧版本将更有用。
例如,旧版本可以在网站管理员工具上查看爬网统计区域(CRAW),这将更方便地了解网站的爬行方法。
该报告有3个图表,显示了过去3个月的数据。
每天爬行的网页数量,每天下载的千字节数以及下载网页(以毫秒为单位)所花费的时间可以显示网站的爬行速度及其与搜索引擎爬网的关系。
如果搜索引擎爬网定期访问网站,并且很容易爬网,则该网站将具有很高的爬网速度。
这些图表数据是最好的,如果它们保持一致,任何重大波动都会出错,可能会损坏HTML,陈旧的内容或.txt文件阻止了太多URL。
如果加载页面需要很长时间,则意味着爬网爬行太长,索引创建速度很慢。
您还可以在新版本的“覆盖范围报告”中查看爬网错误。
这些地方是有爬行问题的页面,然后单击以显示这些页面。检查是什么原因导致这些页面的爬行问题。对于那些不太重要的页面的人,最好尽快解决这些问题。
如果您在craw或覆盖报告中发现大量的爬网错误或波动,则可以分析和查看日志文件。
从服务器日志访问原始数据可能会有些麻烦,因为分析是一个高级设置,但是它有助于确切地了解哪些页面可以被爬行并且无法爬行。
将首先处理哪些页面,哪些区域将被浪费预算,以及在网站爬网期间爬网的服务器响应。
02
检查站点可以索引
在检查了爬虫是否可以爬网网站后,您还必须找出网站上的网页是否已索引。
有很多方法可以检查此问题。前面使用的覆盖报告可用于查看每个页面的状态。
从本报告中,我们看到了四个数据:
您还可以使用URL检查工具来分析特定的URL。
如果主页上的流量下降,则应检查新添加的网站是否已索引或对URL进行故障排除。
还有另一种好方法可以检查网站是否可以索引,即使用爬行工具,并建议使用青蛙。
青蛙是最强大,最常用的爬行软件之一。它具有付费和免费版本,可以根据网站的规模选择。
免费版本的功能有限,并且爬网数限制为500个URL。付费版本的年费为149英镑,具有许多功能和可用的API,并且没有爬行限制。
运行爬网软件后,您可以看到与索引有关的两列结果。
:索引性,显示是否可以索引URL,是“可索引”还是“不可索引”。
:可索引的状态,显示了为什么URL无法索引的原因,它是为另一个URL编译的,还是具有无索引的标签。
该工具是批量查看网站的好方法,可以查看哪些网页被索引,哪些网页无法索引,结果将显示在结果中。
排序列并查找异常。使用它有效地识别可以索引的重要页面。
最后,您还可以使用此网站来检查索引的索引:。
输入站点:在搜索栏中,按键查看已索引的网站上的每个页面。
例子:
在这里,我们看到约95,000个索引URL,通过此功能,我们知道现在存储了多少个网页。
如果您的页面数与索引的数量大不相同。
那么您应该想: