robot文件如何创建
有时候,我们的网站有些后台地址或者是动态地址等不希望被搜索引擎搜索到,这时候robot文件就起到它的作用了。
工具/原料
文本文档
robots文件语法大全
robots.txt文件的作用
1、制定搜索引擎如何索引你网站的规则,限定哪些页面允许被索引,哪些页面不允许被索引。
robots.txt文件的创建
1、(1)当网站本身并不存在robots文件的情况下,新建一个纯文本文档,命名为robots.txt,在此文件中进行编辑,完成后嗒扬柰旦传到对应网站的根目录下即可。(2)网站本身存在robots文件的情况下,下载原robots文件进行编辑,完成后传到对应网站的根目录下。

robots.txt文件主要语法
1、User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符Disallow: /目录名/ 禁止访问某个目录Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
robots.txt文件常用示例
1、允许所有搜索引擎访问网站的所有部分User-agent: *Disallow:

3、禁止除百度外的一切搜索引擎索引你的网站User-agent: BaiduspiderDisallow:User-agent: *Disallow: /

5、禁止索引网站中所有含有“?”网址User-agent: *Disallow: /*?*还有很多相关设置,在这里无法做一一列举,需要大家触类旁通,以及下载一份较全的robotot文件语法。

主要搜索引擎蜘蛛名称
1、Googlebot:谷歌蜘蛛
2、Baiduspider:百度蜘蛛
3、Yahoo! Slurp :雅虎蜘蛛