• 关注微博

如何让网页不被百度所收录?

发表于2018-10-15 分类:SEO技术教程 浏览次数:145次

1、百度及所有搜索引擎都遵循Robots协议。
 
2、我们需要设置Robots文件来限制搜索引擎对你的网站或者部分网站目录下的网页不被搜索引擎收录。
 
3、如果已经收录的页面需要蜘蛛禁止抓取,那么我们设置好Robots协议后,那么新的Robots文件可以利用百度站长平台工具主动更新Robots文件,Robots协议立即会生效,以后新的网页将不会建入索引。
 
但需要注意的是,robots.txt文件禁止搜索引擎收录以前已收录的内容的话,搜索引擎会从搜索结果中去除以前的网页需要大约几周的时间来更新。



回到顶部