中可用的抓取统计信息,以确保 Google 正在抓取新网站的页面。一般来说,当 Googlebot 遇到新页面时,它往往会加快它每天抓取的平均页面数量。但是,如果您无法在发布日期前后发现峰值,则可能会对 Googlebot 抓取网站的能力产生负面影响。 在 Google 的 Search Console 上抓取统计信息 到目前为止,查看服务器日志文件是发现任何爬网问题或效率低下的最有效方法。像Botify和On Crawl这样的工具非常有用,因为它们将爬取与服务器日志数据结合起来,并且可以突出显示搜索引擎不爬取的页面、未
链接到内部的页面(孤立页面)、内部链接严重的低价值页面,还有更多。 定期查看抓取错误 密切关注报告的抓取错误,最好是在最初的几 客户名单 周内每天进行一次。每天下载这些错误、抓取报告的 URL 并采取必要的措施(即实施额外的 301 重定向、修复软 404 错误)将有助于更快地恢复。您不太可能需要重定向报告的每一个 404,但您应该为最重要的那些添加重定向。 专业提示:在 Google Analytics(分析)中,您可以轻松找出最常请求的 404 URL 并首先修复它们! 其他有用的 Search Console 功能 其他值得
检查的 Search Console 功能包括被阻止的资源、结构化数据错误、移动可用性错误、HTML 改进和国际定位(检查 hreflang 报告的错误)。 专业提示:密切关注 URL 参数,以防它们导致重复内容问题。如果是这种情况,请考虑采取一些紧急补救措施。 测量站点速度 新站点上线后,测量站点速度以确保站点页面在桌面设备和移动设备上的加载速度都足够快。由于网站速度是跨设备的排名信号,并且由于页面缓慢会失去用户和客户,因此将新网站的速度与旧网站的速度进行比较非常重要。如果新网站的页面加载时