A
A
Serif
Sans
White
Sepia
Night
首页
文章
1 votes
answers
views
负责任的时间延迟 - 网络爬行
放入仅爬网一个根页的网络爬虫的负责任/道德时间延迟是多少? 我在以下调用之间使用time.sleep(#)requests.get(URL) 我正在寻找一个关于什么时间尺度的粗略想法:1 . 方式太保守2.标准3.会引起问题/让你注意到 我想触摸符合某些标准的每一页(至少20,000,可能更多) . 这在合理的时间范围内是否可行? 编辑这个问题不是关于避免被阻止(尽管任何相关信息都会受到赞赏),而...
python
web-crawler
delay
responsibility
热门问题
22299
为什么处理排序数组比处理未排序数组更快?
18633
如何撤消Git中最近提交的提交?
14365
如何在本地和远程删除Git分支?
10549
'git pull'和'git fetch'之间有什么区别?
9402
什么是正确的JSON内容类型?
8739
“yield”关键字有什么作用?
7999
C中的“ - >”运算符是什么?
7746
如何在提交之前撤消'git add'?
7735
如何重定向到其他网页?
7654
JavaScript闭包如何工作?