为什么我的网站已经加了robots.txt,还能在百度搜

时间:2018-08-08 10:37作者:网友投稿
  因为搜索引擎索引的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。

  如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理。

免责声明:本站所有文章和图片均来自用户分享和网络收集,文章和图片版权归原作者及原出处所有,仅供学习与参考,请勿用于商业用途,如果损害了您的权利,请联系网站客服处理。