嗨,伙计们,我能够从一个api响应中提取数据,但是文件太大了,超过了4gb,所以我想问一下,是否有办法将gzip文件中的数据分割成更小的块?你知道吗
我试着使用curl命令,我看到数据下载和工作非常好 然后我尝试在python中使用相同的curl逻辑
curl -H "X-Risk-Token: $token" "https://api.nyc3.us.thisismyurl.com/vulnerabilities/download_data_zip" -o file.gz -vv
下面是我的python代码:
import requests
import gzip
import json
import csv
# url ='https://api.thisismyurl.com/vulnerabilities/download_data_zip'
token = 'blahblahblah'
# 'Content-Type': 'application/json'
headers = {'X-Risk-Token': token, 'Accept': 'application/json'}
response = requests.get(url,headers=headers)
print(response.status_code)
json_format = json.loads(response.text)
print(json_format)
以下是我的输出: enter image description here 你能举个例子吗?你知道吗
谢谢
要做与curl完全相同的事情,必须执行以下操作:
你知道吗json.loads文件()的原始代码将消耗大量RAM,如果没有足够的可用RAM,可能会导致进程崩溃。你知道吗
你到底想怎么处理这些数据?你知道吗
可视化数据可以通过以下方式完成:
由于我建议仍然没有成功,也没有得到任何信息,这就解释了为什么“配额”会导致python脚本出现问题,而不是curl问题,我建议进行更多的测试。你知道吗
1.)下载但不存储结果(是否是网络被阻止/中止??)你知道吗
请检查结果是否总是相同的,或者您得到的数字是否不同
相关问题 更多 >
编程相关推荐