网站必须要有robots吗

网站必须要有robots文件吗,想要弄清楚这个问题,首先需要弄懂:robots是一个什么文件,作用是什么,robots.txt是一个规则性文件,通过robots规则,可以引导搜索引擎,限制搜索引擎收录某些文件,屏蔽一些不需要收录的路径,例如动态链接和一些没有必要收录的文件。

我的段文杰SEO博客经营一年多了,以前一直有robots,最近把robots取消了,取消以后,至今已经两个月的时间,一切正常,排名和收录并没有受到影响,但是为了网站的安全考虑,我个人建议还是应该写上robots,把一些不安全的文件路径屏蔽掉,保证网站安全。

实际情况不同,robots的写法也不一样,一般robots有两个作用,第一个作用是屏蔽不需要收录的文件,第二个作用是屏蔽动态链接,不同的程序有不同的写法,大家可以参考一些相同程序的网站,如果是新手,建议把robots写的简单一些,或者先不要写robots,以免出错。

如果不懂该怎么写robots文件的,可以直接登陆百度站长平台,找到robots选项,可以这个功能可以写出一个简单的robots规则,同时检测网站的robots规则是否正确,最后再次强调一下,robots是一个很重要的规则,千万不要乱写,如果写错了规则,会直接影响网站收录和SEO排名。

本站文章均属原创,转载请注明文章来自于段文杰SEO博客,否则视为侵权。

发表回复

您的电子邮箱地址不会被公开。