小编典典

为什么搜索引擎搜寻器无法运行javascript?

ajax

我一直在使用一些使用许多ajax请求呈现页面的高级javascript应用程序。要使应用程序可抓取(通过Google),我必须遵循https://developers.google.com/webmasters/ajax-
crawling/?hl=fr。这告诉我们做类似的事情:重新设计我们的链接,创建html快照,…以使站点可搜索。

我想知道为什么搜寻器不运行javascript来获取 呈现的页面 并对其进行索引。这背后有原因吗?还是未来可能出现的搜索引擎缺少的功能?


阅读 323

收藏
2020-07-26

共1个答案

小编典典

即使GoogleBot实际上确实可以处理用js编写的网站。Ajax网站的最大问题是,即使GoogleBot可以执行js并处理ajax请求。

网络搜寻器不可能完全知道页面何时完成加载。因此,网络搜寻器可以在开始执行Ajax请求之前加载页面并为其编制索引。假设脚本将在页面滚动时执行。谷歌机器人很可能不会触发所有可能的事件。

另一个问题是导航

由于导航无需重新加载页面即可完成,因此一个网址可以映射到多个“查看结果”。因此,Google要求开发人员使用静态页面保留页面副本,以支持否则无法访问的那些页面。他们将被索引。

如果您的站点可以通过完全限定的URL访问每个页面。这样一来,您对网站编制索引就不会有问题。

也就是说,脚本将开始运行。但是不能确定搜寻器在处理完所有脚本之后是否会对页面编制索引。

这里是一个链接:

更智能的GoogleBot:它写于2010年,从那时起,我们可以期望网络抓取者变得更加聪明。

2020-07-26