Robots

搜索优化

Robots工具

无天 发布于 2018-03-19

一、什么是robots.txt文件 搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建...

阅读(466)评论(0)赞 (1)