专业网站建设品牌,十四年专业建站经验,服务6000+客户--广州京杭网络
免费热线:400-963-0016      微信咨询  |  联系我们

为什么我的网站已经加了robots.txt,还能在百度搜

当前位置:网站建设 > 优化推广
资料来源:网络整理       时间:2023/3/22 0:33:16       共计:3586 浏览
  因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。

  如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理。
版权说明:
本网站凡注明“广州京杭 原创”的皆为本站原创文章,如需转载请注明出处!
本网转载皆注明出处,遵循行业规范,如发现作品内容版权或其它问题的,请与我们联系处理!
欢迎扫描右侧微信二维码与我们联系。
·上一条:如果发现移动站流量波动,该怎么办? | ·下一条:建设中小企业网站的意义有哪些?

Copyright © 广州京杭网络科技有限公司 2005-2025 版权所有    粤ICP备16019765号 

广州京杭网络科技有限公司 版权所有