有时因为网站需要,我们的站点内有大量的相似、重复页面水貔藻疽,如果被搜索引擎发现一个站点有大量的重复,就会给予惩罚。这是我们就要用瘌豚胛瑗到robots文件,用以屏蔽一些类似的页面,另外robots文件也可以帮助我们屏蔽一些个人隐私文件。
工具/原料
网站域名、服务器。
FTP工具。
关于robots.txt一般站长需要注意以下几点:
1、如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。
2、必须命名为:robots.txt,都是小写,robot后面加"s"。
3、robots.txt必须放置在一个站点擢爻充种的根目录下。如:通过http://www.zer0v.com/robots.txt可以成功访问到,则说明本站的放置正确。
4、一般情况下,robots.txt里只写着两个函数:User-agent和Disallow。
5、有几个禁止,就得有几个Disallow函数,并分行描述。
6、至少要有缬方焱蜱一个Disallow函数,如果都允许收录,则写:Disallow:,如果都不允许收录,则写:Disallow:/(注:只是差一个斜杆)。
补充说明:
1、User-agent:*星号说明允许所有搜索引擎收录
2、Disallow:/search.html说明http://www.zer0v.com/search.html这个页面禁止搜索引擎抓取。