如果防止自己的网站被搜索引擎收录
1、在网站的根目录下创建一个名为“robots.txt"的文本文件。实现这一步之后,任意一个搜索引擎访问自己的网站时,都会首先查找该文件,然后它就会根据这个文件的内容,来确定它访问的权限和范围。网站的目录结构如图所示。
2、结合网站的内容,编写“robots.txt”文件的内容。我们要实现的目标是允许百度访问本站所有内容,对于BadBot,则主允许其访问或收录位于本站根目录下的help.html文件。据此编写的"robots.txt"文件内容如下:
3、过段时间之后,可上网搜索自己网站上相应内容,验证一下看搜索引擎是否按照robots.txt 文件所描述的权限进行相应的访问。
声明:本网站引用、摘录或转载内容仅供网站访问者交流或参考,不代表本站立场,如存在版权或非法内容,请联系站长删除,联系邮箱:site.kefu@qq.com。