根据我自己的测试,我认为plt和cbr是技术方面,它将决定新的一年网站的成败。
google可以在网站的内容,信息的透明度以及技术质量方面对网站所有者施加自己的规则。因此,我现在最关注的技术方面(并将在明年进行)是在我称为plt(页面加载时间)的不同加载时间范围内网站的速度。
到第一个字节的时间(ttfb)是从发送请求到发送信息的第一个字节为止的服务器响应时间。它从服务器(数据库连接,信息处理和数据缓存系统以及dns服务器性能)的角度演示了网站的工作方式。您如何检查ttfb?最简单的方法是使用以下工具之一:
chrome浏览器中的开发者工具webpagetest字节检查解释结果ttfb时间低于100ms是令人印象深刻的结果。在google的建议中,ttfb时间不应超过200毫秒。通常认为计算得出的接收第一个字节的可接受服务器响应时间不得超过0.5s。超过此值,服务器上可能存在问题,因此更正它们将改善网站的索引编制。
改善ttfb1.通过改进负责消耗资源的数据库查询的代码片段(例如,多级联接)或加载处理器的繁重代码(例如,生成动态的复杂树数据结构,例如类别结构或在不使用缓存机制的情况下,在显示视图之前准备缩略图)。
2.使用内容传送网络(cdn)。这是在遍布全球的服务器网络中使用的,这些服务器网络提供了css,js文件和来自服务器的内容,这些服务器位于距离想要查看给定网站的人最近的服务器上。借助cdn,资源不会像传统服务器那样排入队列,并且几乎可以并行下载。cdn的实施可将ttfb时间减少多达50%。
3.如果使用共享主机,请考虑迁移到具有保证资源(例如内存或处理器能力)的vps服务器或专用服务器。这样可以确保只有您才能影响计算机(或在vps情况下为虚拟机)的操作。如果工作缓慢,则问题可能出在您身边,不一定是服务器。
4.考虑实现缓存系统。对于wordpress,您可以选择许多插件,这些插件的实现没有问题,效果会立即显现。wp super cache和w3 total cache是我最常使用的插件。如果使用专用解决方案,请考虑使用redis,memcache或apc实现,这些实现允许您将数据转储到文件或将其存储在ram中,这可以提高效率。
5.启用http / 2协议,或者如果您的服务器已经具有http / 3功能,则启用它。速度方面的优势令人印象深刻。
dom处理时间dom处理时间是下载所有html代码的时间。代码越有效,加载它所需的资源就越少。在搜索引擎索引中存储网站所需的资源较少,可提高速度和用户满意度。
我乐于通过消除冗余html代码并将网站上显示的元素的生成从html代码转换为css来减少html代码量。例如,我使用伪类:before和:after,以及从html中删除svg格式的图像(那些图像存储在<svg> </ svg>中)。
页面渲染时间网站的页面呈现时间受下载图形资源以及下载和执行js代码的影响。
资源的压缩和压缩是加快网站呈现时间的基本操作。异步照片加载,html压缩,javascript代码从html(功能主体直接包含在html中)迁移到根据需要异步加载的外部javascript文件。这些活动表明,最佳做法是仅加载当前子页面上所需的javascript或css代码。例如,如果用户在产品页面上,则浏览器不必加载将在购物篮或已登录用户的面板中使用的javascript代码。
需要加载的资源越多,google bot必须花费更多的时间来处理有关网站内容的信息下载。如果我们假设每个网站都具有最大的google bot访问次数/最长访问时间(以对内容建立索引为结尾),那么在这段时间内我们将能够发送到搜索引擎索引的页面越少。
搜寻预算等级最后一个问题需要更多关注。抓取预算会严重影响google bot对网站内容进行索引的方式。为了了解其工作原理以及搜寻预算的含义,我使用了一种称为cbr(搜寻预算排名)的概念来评估网站结构的透明度。
如果google bot在网站上找到相同内容的重复版本,我们的cbr就会降低。我们通过两种方式知道这一点:
1. google search console通过分析和评估与google search console中的页面索引编制相关的问题,我们将能够在“状态>排除”标签中的以下部分中观察到越来越多的问题:
网站已扫描但尚未编入索引网站包含重定向重复,google选择了与用户不同的规范页面重复,用户尚未标记规范页面2.访问日志这是有关google bot如何抓取我们网站的最佳信息来源。根据日志数据,我们可以了解网站的结构,以识别内部链接和导航元素造成的体系结构中的薄弱环节。
影响索引问题的最常见编程错误包括:
1.不良的数据过滤和排序机制,导致创建了数千个重复的子页面
2.“快速查看”链接在用户版本中显示层上带有数据的弹出窗口,并创建具有重复产品信息的网站。
3.分页永无止境。
4.网站上的链接,这些链接重定向到新url上的资源。
5.阻止机器人访问经常重复的资源。
6.典型的404错误。
如果我们网站的“混乱”现象增加,我们的cbr就会降低,这意味着google bot不太愿意访问我们的网站(频率较低),对内容的索引越来越少,并且在错误解释正确版本的资源的情况下,删除先前在搜索引擎索引中的页面。
经典的抓取预算概念让我们知道了google bot每天平均抓取的页面数(根据日志文件)与网站上的总页面数之比。这是两种情况:
1.您的网站有1,000个页面,google bot每天抓取200个页面。它告诉你什么?是阴性还是阳性结果?
2.您的网站有1000个页面,而google bot可以抓取1000个页面。您应该快乐还是担心?
如果不使用其他质量指标来扩展爬网预算的概念,那么信息就没有那么有用。第二种情况可能是页面优化良好,或者预示着巨大的问题。假设google bot仅抓取您要抓取的50个页面,其余(950个页面)为垃圾/重复/内容稀疏的页面。然后我们有一个问题。
我已经定义了“抓取预算排名”指标。像“页面排名”一样,页面排名越高,传出链接越强大。cbr越大,我们遇到的问题越少。
cbr数值解释可以如下:
is?–在站点地图中发送的索引网站数(索引站点地图)
nis?–站点地图中发送的网站数(非索引站点地图)
ipos?–未在站点地图中分配的网站数(站点地图以外的索引页面)
sni?–已扫描但尚未编制索引的页面数
等式的第一部分描述了我们希望搜索引擎索引的网站的状态(假定站点地图中的网站是我们要索引的网站)与实际情况的关系,即google bot达到的状态并且即使我们不想要它也将其编入索引。理想情况下,is = nis和ipos = 0。
在等式的第二部分,我们看一下google bot已到达的网站数量与实际的索引编制范围。如上所述,在理想条件下,sni = 0。
结果值乘以10将得到一个大于零且小于10的数字。结果越接近0,我们就应该在cbr上进行更多的工作。
这只是我自己对我去年处理过的项目的分析的解释。我越努力改善这一因素(提高cbr),就可以提高网站的可见度,排名和最终的访问量。
如果我们假设cbr是影响域总体排名的排名因素之一,那么我将其设置为紧随非现场页面排名之后的最重要的现场因素。如果google bot将没有机会在搜索引擎索引中输入此信息,那么针对根据热门程度选择的关键字进行了优化的独特描述有哪些?
用户第一内容我们正在见证阅读和解释网站上查询和内容的另一次重大革命。从历史上看,这种突破性的变化包括:
数量标准?–内容中包含1,000个字符,带有空格和三个money关键字。在某一时刻,这是成功的保证,有一天,它不再重要了。内容稀少?-基于带有关键字的标签构建的流量。一夜之间,该策略停止了工作,人工生成的低质量内容(文本混合器)也停止了工作。重复的内容?– google bot知道(或多或少)在搜索引擎中索引的文本是原始的(首先创建),以及是副本。结果,创建了熊猫(谷歌算法)。每隔几个月,它就会过滤并标记低质量的网站,并降低其排名以及搜索引擎的排名。当前,它以“实时”模式工作。排名脑?–一种算法,该算法利用机器学习来解释搜索引擎用户的查询,而对关键字的重视程度较低,而对查询上下文(包括查询历史记录)的重视程度更高,并且显示了特定于上下文的结果。eat?–消除由于内容作者以及相应域的权威性低而引起误导或可能引起误解的内容。这尤其影响了医疗和金融行业。任何不是由专家创建但仍涉及上述生活领域的文章,都可能造成很大的损失。因此,google与包含不良内容和质量的域的斗争。为特定关键字创建内容的重要性正在下降。如果将内容分类为与用户的意图和搜索上下文相匹配的内容,则充斥着销售短语的长篇文章就会失去亮点,主题也变得狭窄。
伯特bert(来自变压器的双向编码器表示)是一种尝试在用户需求和意图级别理解和解释查询的算法。例如,查询–没有有效签证您可以在美国停留多长时间?–可以显示网站的结果,在该网站上我们可以找到有关签证期限的信息,这些信息取决于原籍国(例如,来自欧洲的搜索)以及那些威胁签证将过期的人的信息,或描述如何使在美国居留合法化。
是否可以创建完美的内容?答案很简单–不。但是,我们可以改善内容。
在改进内容以