robots.txt究竟要怎样写?

robots.txt究竟怎样写才是对的?

我在站长工具http://tool.chinaz.com/robots/ 生成的文件分别点击了允许和拒绝一些搜索引擎,生成的结果如下
站长工具robots截图
User-agent: Baiduspider
Disallow: /
User-agent: Sosospider
Disallow: /
User-agent: sogou spider
Disallow: /
User-agent: YodaoBot
Disallow: /
User-agent: Googlebot
Disallow:
User-agent: Bingbot
Disallow:
User-agent: Slurp
Disallow:
User-agent: Teoma
Disallow:
User-agent: ia_archiver
Disallow:
User-agent: twiceler
Disallow:
User-agent: MSNBot
Disallow:
User-agent: Scrubby
Disallow:
User-agent: Robozilla
Disallow:
User-agent: Gigabot
Disallow:
User-agent: googlebot-image
Disallow:
User-agent: googlebot-mobile
Disallow:
User-agent: yahoo-mmcrawler
Disallow:
User-agent: yahoo-blogs/v3.9
Disallow:
User-agent: psbot
Disallow:
User-agent: *
Disallow:
Sitemap: https://www.josejang.com/sitemap_index.xml

很明显,这个是禁止百度索引
User-agent: Baiduspider
Disallow: /
这个却是允许Google索引
User-agent: Googlebot
Disallow:
不知道大家又没有发现他们的区别,仅仅是多了一个“/”上划线
真是奇怪,允许索引不是用Allow: 吗?
robots工具介绍截图
Disallow记录为空说明该网站的所有页面都允许被搜索引擎抓取,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎蜘蛛,该网站都是开放的可以被抓取的。

然后我在站长工具http://s.tool.chinaz.com/robots 中进行检测:
结果是全部不允许索引....
robots文件测试结果

版权声明:
作者:José
链接:https://www.josejang.com/about-work/33.html
来源:José's ⎝⏠⏝⏠⎠ Blog
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>