我正在尝试使用python请求库从此链接下载文件:http://www.nasdaq.com/screening/companies-by-industry.aspx?exchange=NASDAQ&render=download
单击此链接将仅在使用浏览器时为您提供文件(nasdaq.csv) . 我使用Firefox网络监视器Ctrl-Shift-Q来检索Firefox发送的所有标头 . 所以现在我终于获得了200个服务器响应,但仍然没有文件 . 此脚本生成的文件包含Nasdaq网站的部分内容,而不是csv数据 . 我在这个网站上查看了类似的问题,没有什么能让我相信这对于请求库来说是不可能的 .
码:
import requests
url = "http://www.nasdaq.com/screening/companies-by-industry.aspx?exchange=NASDAQ&render=download"
# Fake Firefox headers
headers = {"Host" : "www.nasdaq.com", \
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; rv:42.0) Gecko/20100101 Firefox/42.0", \
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8", \
"Accept-Language": "en-US,en;q=0.5", \
"Accept-Encoding": "gzip, deflate", \
"DNT": "1", \
"Cookie": "clientPrefs=||||lightg; userSymbolList=EOD+&DIT; userCookiePref=true; selectedsymbolindustry=EOD,; selectedsymboltype=EOD,EVERGREEN GLOBAL DIVIDEND OPPORTUNITY FUND COMMON SHARES OF BENEFICIAL INTEREST,NYSE; c_enabled$=true", \
"Connection": "keep-alive", }
# Get the list
response = requests.get(url, headers, stream=True)
print(response.status_code)
# Write server response to file
with open("nasdaq.csv", 'wb') as f:
for chunk in response.iter_content(chunk_size=1024):
if chunk: # filter out keep-alive new chunks
f.write(chunk)
3 回答
实际上你不需要那些 Headers . 您甚至不需要保存到文件 .
样本输出:
如果您愿意,可以使用
csv.reader
而不是DictReader
.针对此问题的另一种更短的解决方案是:
此代码使用URL库创建URL请求对象(
downloadFile
),然后从NASDAQ链接检索数据并将其保存为companylist.csv
.根据Python文档,如果要发送自定义用户代理(例如Firefox用户代理),则可以子类化
URLopener
并将version
属性设置为您要使用的用户代理 .Note :根据Python文档,从Python v3.3开始,不推荐使用
urllib.URLopener()
. 因此,它最终可能会从Python标准中删除 . 但是,从Python v3.6(Dev)开始,仍然支持urllib.URLopener()
作为传统接口 .您不需要提供任何标头:
你也可以写内容:
或者使用urlib:
所有方法都为您提供3137行csv文件:
如果由于某种原因它不适合您,那么您可能需要升级您的请求版本 .