python gdata youtube 评论提取超过150条失败

1 投票
1 回答
573 浏览
提问于 2025-04-18 01:06

我正在使用Python的gdata模块来提取YouTube视频的评论,但遇到了一些问题。这个方法在评论比较少的视频上能正常工作(也就是评论不多的视频),但是一旦视频的评论数量明显增多,就会出现错误请求的情况。

gdata.service.RequestError: {'status': 400, 'body': 'Invalid value for parameter: video-id', 'reason': 'Bad Request'}

这是我的函数:

def getComments(client, video_id):
    comment_feed = client.GetYouTubeVideoCommentFeed(video_id=video_id)
    while comment_feed is not None:
        for comment in comment_feed.entry:
             yield comment
        next_link = comment_feed.GetNextLink()
        if next_link is None:
             comment_feed = None
        else:
             comment_feed = client.GetYouTubeVideoCommentFeed(next_link.href)

有没有人知道怎么解决这个问题?

编辑:

所以我决定尝试另一种方法,这就是我得到的结果:

from gdata.youtube import service

comment_feed_url = "http://gdata.youtube.com/feeds/api/videos/%s/comments?max-results=50"
USERNAME = ''
PASSWORD = ''

''' Get the comment feed of a video given a video_id'''
def WriteCommentFeed(video_id):
    client = service.YouTubeService()
    client.ClientLogin(USERNAME, PASSWORD)
    url = comment_feed_url % video_id
    comment_feed = client.GetYouTubeVideoCommentFeed(uri=url)
    allComments = []
    while comment_feed:

        for comment_entry in comment_feed.entry:
            allComments.append(comment_entry.content.text)

        print len(allComments)
        print comment_feed.GetNextLink().href
        comment_feed = client.Query(comment_feed.GetNextLink().href)

if __name__ == "__main__":
    WriteCommentFeed("5DdzE4k31fM")

看起来在150条评论的时候就出问题了,所以当我查询第200条评论时,就出现了这个错误:

'reason': server_response.reason, 'body': result_body}
gdata.service.RequestError: {'status': 414, 'body': '<!DOCTYPE html>\n<html lang=en>\n  <meta charset=utf-8>\n  <meta name=viewport content="initial-scale=1, minimum-scale=1, width=device-width">\n  <title>Error 414 (Request-URI Too Large)!!1</title>\n  <style>\n    *{margin:0;padding:0}html,code{font:15px/22px arial,sans-serif}html{background:#fff;color:#222;padding:15px}body{margin:7% auto 0;max-width:390px;min-height:180px;padding:30px 0 15px}* > body{background:url(//www.google.com/images/errors/robot.png) 100% 5px no-repeat;padding-right:205px}p{margin:11px 0 22px;overflow:hidden}ins{color:#777;text-decoration:none}a img{border:0}@media screen and (max-width:772px){body{background:none;margin-top:0;max-width:none;padding-right:0}}#logo{background:url(//www.google.com/images/errors/logo_sm_2.png) no-repeat}@media only screen and (min-resolution:192dpi){#logo{background:url(//www.google.com/images/errors/logo_sm_2_hr.png) no-repeat 0% 0%/100% 100%;-moz-border-image:url(//www.google.com/images/errors/logo_sm_2_hr.png) 0}}@media only screen and (-webkit-min-device-pixel-ratio:2){#logo{background:url(//www.google.com/images/errors/logo_sm_2_hr.png) no-repeat;-webkit-background-size:100% 100%}}#logo{display:inline-block;height:55px;width:150px}\n  </style>\n  <a href=//www.google.com/><span id=logo aria-label=Google></span></a>\n  <p><b>414.</b> <ins>That\xe2\x80\x99s an error.</ins>\n  <p>The requested URL <code>/feeds/api/videos/5DdzE4k31fM/comments</code>... is too large to process.  <ins>That\xe2\x80\x99s all we know.</ins>\n', 'reason': 'Request-URI Too Large'}

有没有人知道这是为什么呢?

1 个回答

3

当你试图对一个评论数量很多的视频进行分页时,API生成的分页链接可能会超过2048个字符。这时候,你就会遇到HTTP 414错误页面。

要解决这个问题:

假设你正在发送一个请求:

http://gdata.youtube.com/feeds/api/videos/VIDEO_ID/comments

那么你需要在请求中加入一个参数:

orderby=published

比如:

"https://gdata.youtube.com/feeds/api/videos/" + _videoId + "/comments?orderby=published&max-results=50"

这样,API就会根据时间来获取结果,而不是根据相关性。这可能就是为什么它生成的起始令牌会短很多的原因。

希望这对你有帮助。

撰写回答