查询友情链接提示 该站robots.txt禁止baiduspider,googlebot访问 是怎么回事?
发布网友
发布时间:2022-04-26 01:01
我来回答
共1个回答
热心网友
时间:2023-10-03 04:27
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
spider是百度蜘蛛,googlebot谷歌机器人
Disallow:后的内容是网站robots.txt文件里禁止搜索引擎抓取的目录
User-agent 是针对什么搜索引起 ,*的意思就是所有,希望对你有帮助