如何正确撰写robots文件

 时间:2024-11-13 03:56:36

有时因为网站需要,我们的站点内有大量的相似、重复页面水貔藻疽,如果被搜索引擎发现一个站点有大量的重复,就会给予惩罚。这是我们就要用瘌豚胛瑗到robots文件,用以屏蔽一些类似的页面,另外robots文件也可以帮助我们屏蔽一些个人隐私文件。

工具/原料

网站域名、服务器。

FTP工具。

关于robots.txt一般站长需要注意以下几点:

1、如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。

2、必须命名为:robots.txt,都是小写,robot后面加"s"。

3、robots.txt必须放置在一个站点擢爻充种的根目录下。如:通过http://www.zer0v.com/robots.txt可以成功访问到,则说明本站的放置正确。

4、一般情况下,robots.txt里只写着两个函数:User-agent和Disallow。

5、有几个禁止,就得有几个Disallow函数,并分行描述。

6、至少要有缬方焱蜱一个Disallow函数,如果都允许收录,则写:Disallow:,如果都不允许收录,则写:Disallow:/(注:只是差一个斜杆)。

补充说明:

1、User-agent:*星号说明允许所有搜索引擎收录

2、Disallow:/search.html说明http://www.zer0v.com/search.html这个页面禁止搜索引擎抓取。

电脑文件怎么直接传输到微信? 电脑文件怎么发送到微信 桌面文件怎么打包发送到微信 文件夹怎么发送到微信 苹果手机怎么弄文件夹放图片进去
热门搜索
世界名画高清图片 武汉加油手抄报图片 青春派 电影 染头发颜色种类图片 三原色配色表图片