我已经能够成功地刮网站,并有一些困难,作为一个csv保存,需要帮助,看看我在哪里搞砸了。这是我的代码,我还包括了一段代码:
import bs4 as BeautifulSoup
import CSV
import re
import urllib.request
from IPython.display import HTML
# Program that scraps the website for
r= urllib.request.urlopen('https://www.census.gov/programs-
surveys/popest.html').read()
soup = BeautifulSoup(r,"html.parser")
for link in soup.find_all('a'):
print(link.get('href'))
with open("Giles_C996.csv","w") as csv_file:
writer = csv.writer(csv_file,delimiter="/n")
writer.writerow(Links)
Close()
错误消息:
回溯(最近一次呼叫最后一次): 文件“C:\Users\epiph\Giles_C996 Project 2.txt”,第2行,在 导入CSV ModuleNotFoundError:没有名为“CSV”的模块
您有一些错误的导入,并调用了一个未定义的变量
我对iPython不是很熟悉,所以我不能对你对它的使用发表太多评论。而且urllibs总是有问题,所以我只使用了请求
我为csv文件的替代布局提供了一些废弃代码,以及一个可以帮助确定链接是否有效的函数,以及一个列表理解(如果您喜欢这种方法)。 还可以为您打开csv文件
您错误地导入了
csv
和bs4
模块。而且Close()
是不正确的。您可以使用到set
的转换来消除重复项输出为:
等等
相关问题 更多 >
编程相关推荐