首页 文章

robots.txt文件有哪些规则?

提问于
浏览
1

我正在尝试构建一个robots.txt解析器,我想到了一个简单的问题:robots.txt文件的规则是什么?

我开始搜索它,并且在robotstxt.org我发现了1996年的一个document,它为robots.txt文件定义了一些规则 . 本文档明确定义了User-agent,Allow和Disallow的所有规则 .

正在寻找robots.txt的一些示例,我找到了标记,例如Sitemap和Host .

我一直在寻找它,我在维基百科上发现了这个document . 解释一些额外的标签 .

但我的观点是,既然我对维基百科不太信任,并且Web Crawler技术在不断发展,为robots.txt文件创建新规则,我是否可以找到可以定义的每个规则的地方robots.txt文件?

2 回答

相关问题