擅长:python、mysql、java
<p>我也经历过类似的问题。在我的代码中,我按顺序下载了相当多的1-10MB文件,对所有文件进行一些处理,然后将结果发布到云端。在</p>
<p>我亲眼目睹了严重的内存泄漏无法连续处理超过50-100次的下载。在</p>
<p>由于不愿意将下载代码重写到Blobstore,我尝试了一个最后的实验,每次下载后手动调用垃圾回收:</p>
<pre><code>import gc
gc.collect()
</code></pre>
<p>我现在运行代码几分钟,没有任何“超过软私有内存限制”,并且实例的内存占用似乎以慢得多的速度增长。在</p>
<p>显然,这可能只是一个好运气,占用空间仍在逐渐增加,但有一些下降,并且实例已经服务了2000个请求。在</p>