如果你要重做一个站点,解决方案很简单:尽可能避免使用参数。通过 URL 重写技术,您可以对服务器进行编程以读取动态 URL,并以对网站有用的形式重写它们。
但是,如果您有一个网站,并且您只是想改善这种情况,那么您可以向开发人员寻求帮助,以识别所有不再具有特定功能的 URL、具有空值、具有相同名称和不同名称的 URL。值,因此可以简 圣卢西亚电子邮件列表 单地消除。此外,您可以要求它为您编写一个脚本,以便为参数提供一致的顺序,无论用户选择如何选择它们。
该解决方案的优点:
允许您提高抓取预算
减少内容重复的问题
在更少的页面上整合页面排名
也有缺点:除了不易实施之外,仅靠它还不足以解决问题,而必须关联一种或多种替代解决方案。事实上,它并不能防止内容重复,不能巩固页面排名,并且可能导致内容稀疏的问题。
使用 rel=canonical 标签
规范是定义规范参考 URL 的标签,搜索引擎在抓取、索引和定位资源时必须考虑该规范参考 URL。
搜索引擎将扫描这两个 URL,但由于规范,它将整合规范地址的排名信号。它被所有搜索引擎所接受,并且应该是您选择管理站点参数的第一个方法,因为它很容易实现。
然而,这种解决方案也有缺点:
它不被解释为指令,而是建议。
它不能应用于所有类型的查询字符串。
它并不能阻止搜索引擎浪费抓取预算。
使用无索引标签
第二个技巧是为任何基于参数的页面设置 noindex 指令,这不会增加 SEO 价值。事实上,这个标签可以很容易地实现,并阻止搜索引擎索引该页面,避免重复内容问题的出现。
然而,这种方法也有其缺点:
它不被解释为指令,而是建议。
它不会阻止搜索引擎抓取 URL。
它并不能阻止搜索引擎在抓取时浪费资源。
它不会合并页面的页面排名。
对不需要的方面的内部链接使用 nofollow
解决爬行资源浪费问题的一种方法是使用 rel=nofollow 标记所有指向不需要的方面的内部链接。例如,通过此标记,我们可以阻止 Google 访问任何选择了两个或多个过滤器的页面并传输 PageRank。但要小心,这些链接被插入到其他地方(没有后续)或 sitemap.xml 中,该 URL 将被爬网和索引。
然而不幸的是,“ nofollow ”并没有完全解决问题: