当前位置:SEO自学网 > 站长平台 > 百度搜索资源平台 > 什么是robots文件

什么是robots文件

admin2022年05月19日 19:36:53百度搜索资源平台22

什么是robots文件

Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

来源:百度搜索资源平台 百度搜索学堂


扫描二维码推送至手机访问。

版权声明:本文由SEO自学网发布,如需转载请注明出处。

本文链接:http://www.seozixuewang.com/post/4908.html

标签: Robots

“什么是robots文件” 的相关文章

如何使用Robots避免蜘蛛黑洞?2022年04月08日 22:00:14
Robots.txt 文件应放在哪里?2022年04月11日 20:41:16
搜索引擎的Robots协议2022年04月27日 09:10:55
禁止搜索引擎收录的方法2022年05月04日 10:31:25
robots使用技巧2022年05月06日 20:35:35
robots.txt文件的格式2022年05月06日 20:36:05
robots.txt语法教程2022年05月06日 20:36:28