您好,匿名用户
随意问技术百科期待您的加入

最近各电商打得很火啊!我也就学习学习爬虫。遇到些问题,关于User-Agent,关于403

0 投票

恩。我最近在弄个爬虫的程序,主要是弄来玩玩
是用python写的程序。目前遇到的问题是爬虫爬一会儿就会被返回
403 forbidden
这时,我依然可以使用浏览器访问该网页(爬虫处理到的页面)
于是我想到了修改USER-AGENT来伪装浏览器访问的效果
但是依旧是程序403,且浏览器可以访问。
请问,这是怎么回事,有什么办法可以解决吗?谢谢!
关于连接部分的代码是这样:(python3)

import urllib.request
req = urllib.request.Request('http://www.xxx.com')
req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.1; rv:7.0) Gecko/20100101 Firefox/7.0")
rec = urllib.request.urlopen(req).read().decode('utf8')

然后就会返回403了
谢谢!

用户头像 提问 2012年 12月1日 @ Dante 上等兵 (290 威望)
分享到:

1个回答

0 投票

一般网站没什么可能会用USER-AGENT来过滤的,但爬虫要尽量模拟浏览器的行为直到可以达到目的,python已经内建支持很多浏览器的特性了.下面是我用来抓某个需要登录的网站的代码,用了cookielib.

cj = cookielib.MozillaCookieJar(cookiefile)
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
data ={'csrfmiddlewaretoken' : '', 
            'username' : username,
            'password' : password,
            'login' : '登录',
            'continue' : 'home',
            'u' : '1',
            'next' : ''
            }
    url="/accounts/login/"
    request = urllib2.Request(__get_full_url(url))
    response = opener.open(request)
    for cookie in cj:
        if  cookie.name == 'csrftoken':
            data['csrfmiddlewaretoken'] = cookie.value
        break
    params = urllib.urlencode(data)#不能直接处理<unicode> objects
    request = urllib2.Request(__get_full_url(url),data=params)
    opener.open(request)  #保存登录状态,然后可以用这个opener,想干嘛就干嘛
    cj.save(ignore_discard=True, ignore_expires=True)#保存cookie方便下次使用

当然具体案例要具体分析,善用抓包工具,推荐wireshark,留意header,cookie,post,有些网站会利用重定向的时候设置cookie.再不行就分析js代码.
到这一步大多数网站都逃不过你初有所成的咸猪手了.
如果有验证码,哈哈,那就修炼pyBrain吧.祝你早日炼成盖世咸猪手.

用户头像 回复 2012年 12月1日 @ Karthus 上等兵 (227 威望)
提一个问题:

相关问题

0 投票
1 回复 53 阅读
0 投票
1 回复 17 阅读
0 投票
1 回复 51 阅读
用户头像 提问 2013年 10月10日 @ Kog'Maw 上等兵 (212 威望)
0 投票
1 回复 23 阅读
用户头像 提问 2014年 1月27日 @ Ryze 上等兵 (293 威望)
0 投票
1 回复 91 阅读

欢迎来到随意问技术百科, 这是一个面向专业开发者的IT问答网站,提供途径助开发者查找IT技术方案,解决程序bug和网站运维难题等。
温馨提示:本网站禁止用户发布与IT技术无关的、粗浅的、毫无意义的或者违法国家法规的等不合理内容,谢谢支持。

欢迎访问随意问技术百科,为了给您提供更好的服务,请及时反馈您的意见。
...