当前位置:SEO自学网 > 网站SEO优化教程 > 网站结构优化 > robots.txt:如何让搜索引擎不要抓取没用的页面

robots.txt:如何让搜索引擎不要抓取没用的页面

admin2022年04月06日 21:37:21网站结构优化362

| 什么是robots文件?

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。

| 为什么要做robots文件?

网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。

| 如何制作 robots文件?

编写robots.txt文件并上传到网站根目录。

| 制作 robots.txt注意事项

● 所有搜索引擎则用星号表示

● Allow(允许)和Disallow(不允许)优先级

● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

● 记得将sitemap放到Robots文件中

● 可以陆续放入更多,而不是一次性决定所有

● 网站后台地址/图片地址/下载文件地址/错误链接(搜外网)


扫描二维码推送至手机访问。

版权声明:本文由SEO自学网发布,如需转载请注明出处。

本文链接:http://www.seozixuewang.com/post/558.html

标签: Robots

“robots.txt:如何让搜索引擎不要抓取没用的页面” 的相关文章

robots 禁止快照2022年03月31日 21:26:26
玩转robots协议2022年04月20日 19:46:56
搜索引擎的Robots协议2022年04月27日 09:10:55
禁止搜索引擎收录的方法2022年05月04日 10:31:25
关于robots.txt的二三事2022年05月06日 20:29:16
robots简介2022年05月06日 20:34:36