NEWS

分享创造价值   合作实现共赢

robots文件错误导致网站不收录该如何解决

robots是搜索引擎爬虫协议,是告诉搜索引擎可以爬取收录我的什么页面,不可以爬取和收录我的那些页面,如果robots文件错误导致网站不收录被封禁,就会给网站带去不必要的流量损失,那么要如何解决呢?
robots文件是一个纯文本文件,也就是常见的.txt文件。在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。因此,robots的优化会直接影响到搜索引擎对网站的收录情况。如果robots文件错误,需要做以下处理方式:
1、修改网站Robots文件,然后到百度站长平台更新robots;
2、使用百度站长平台抓取诊断工具检测,可能刚刚开始检测会显示抓取失败,没关系,多试几次就可以抓取成功了;
3、使用百度站长平台抓取频次工具,修改网站抓取频率;
4、在百度站长平台的反馈中心向百度搜索进行反馈,说明这次操作是误操作才导致的发生了这种情况;
5、在百度站长平台的资源提交页面,设置网站数据实时推送;
6、更新网站sitemap地图文件,并且提交给百度,设置24小时更新一次;
 
以上步骤都处理完成以后,接下来就只有等待了,正常情况几天后网站数据就会慢慢恢复了,1个星期左右网站数据就可以恢复正常。
 
下面给大家总结下,避免大家以后也出现此类的问题。
1、要经常查看百度后台数据,关注网站流量及数据变化,及时发现问题,及时进行处理。
2、不要为了图方便省事,选择在线开发网站;
3、网站开发或升级要有流程记录,例如在开发网站做了哪些处理,哪些不需要给搜索引擎抓取,哪些需要给搜索引擎抓取,这些一定要非常清楚;
相关文章
  • 网站robots文件常见问题解答2023.03.21

    大家好,本篇文章讲解如何使用Robots工具及如何正确设置蜘蛛的抓取范围。 一、了解什么是robots文件 1、什么是robots...

  • 详谈robots.txt写法规则2008.10.29

    搜索引擎robots.txt规则,是放置在网站根目录下robots.txt文本文件,在文件中可以设定搜索引擎蜘蛛爬行规则。设置搜索...

  • 站长不要忽视robots.txt的作用2010.09.26

    robots.txt的作用是给搜索引擎指导索引网站的道路,哪些能索引,那些不能索引,有了robots.txt,相当于有了一盏照明的...

  • robots的使用方法说明2008.10.05

    搜索引擎支持的robots使用方法记录包括: Disallow - 告诉蜘蛛不要抓取某些文件或目录。如下面robots代码将阻止蜘蛛抓...

  • 网站robots文件需要注意的几个方面2011.09.05

    想要写好robots文件,需要注意几个方面,比如格式,通配符的使用,搜索引擎蜘蛛的分类和代码以及一些其它的常见错误等...

首页 电话 案例 关于