1000字范文,内容丰富有趣,学习的好帮手!
1000字范文 > Python爬虫模拟登录带验证码网站

Python爬虫模拟登录带验证码网站

时间:2020-09-25 03:18:44

相关推荐

Python爬虫模拟登录带验证码网站

后端开发|Python教程

python爬虫模拟登录,python模拟登录验证码,python爬虫验证码

后端开发-Python教程

爬取网站时经常会遇到需要登录的问题,这是就需要用到模拟登录的相关方法。python提供了强大的url库,想做到这个并不难。这里以登录学校教务系统为例,做一个简单的例子。

红包扫雷源码论坛,安装ubuntu插件安装,爬虫宠物活体市场,视频系统php,seo没有排名lzw

首先得明白cookie的作用,cookie是某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据。因此我们需要用Cookielib模块来保持网站的cookie。

代码变形源码,ubuntu天气插件下载,tomcat修改上下文,史蒂文斯爬虫视频,面向对象程序设计php,泰安seo价格lzw

这个是要登陆的地址 http://202.115.80.153/ 和验证码地址 http://202.115.80.153/CheckCode.aspx

友价商场源码,ubuntu下安装jni,什么程序可以用tomcat,爬虫抖音歌曲,php处理数据库乱码,seo季度付款lzw

可以发现这个验证码是动态更新的每次打开都不一样,一般这种验证码和cookie是同步的。其次想识别验证码肯定是吃力不讨好的事,因此我们的思路是首先访问验证码页面,保存验证码、获取cookie用于登录,然后再直接向登录地址post数据。

首先通过抓包工具或者火狐或者谷歌浏览器分析登录页面需要post的request和header信息。以谷歌浏览器为例。

从中可以看出需要post的url并不是访问的页面,而是http://202.115.80.153/default2.aspx,

其中需要提交的表单数据中txtUserName和TextBox2分别用户名和密码。

现在直接到关键部分 上代码!!

import urllib2import cookielibimport urllibimport reimport sys\模拟登录\ eload(sys)sys.setdefaultencoding("utf-8")# 防止中文报错CaptchaUrl = "http://202.115.80.153/CheckCode.aspx"PostUrl = "http://202.115.80.153/default2.aspx"# 验证码地址和post地址cookie = cookielib.CookieJar()handler = urllib2.HTTPCookieProcessor(cookie)opener = urllib2.build_opener(handler)# 将cookies绑定到一个opener cookie由cookielib自动管理username = usernamepassword = password123# 用户名和密码picture = opener.open(CaptchaUrl).read()# 用openr访问验证码地址,获取cookielocal = open(e:/image.jpg, wb)local.write(picture)local.close()# 保存验证码到本地SecretCode = raw_input(输入验证码: )# 打开保存的验证码图片 输入postData = {\__VIEWSTATE: dDwyODE2NTM0OTg7Oz6pH0TWZk5t0lupp/tlA1L+rmL83g==, xtUserName: username,TextBox2: password, xtSecretCode: SecretCode,RadioButtonList1: 学生,Button1: \,lbLanguage: \,hidPdrs: \,hidsc: \,}# 根据抓包信息 构造表单headers = {Accept: ext/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8,Accept-Language: zh-CN,zh;q=0.8,Connection: keep-alive,Content-Type: application/x-www-form-urlencoded,User-Agent: Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36,}# 根据抓包信息 构造headersdata = urllib.urlencode(postData)# 生成post数据 ?key1=value1&key2=value2的形式request = urllib2.Request(PostUrl, data, headers)# 构造request请求try:response = opener.open(request)result = response.read().decode(gb2312)# 由于该网页是gb2312的编码,所以需要解码print result# 打印登录后的页面except urllib2.HTTPError, e:print e.code# 利用之前存有cookie的opener登录页面

登录成功后便可以利用该openr访问其他需要登录才能访问的页面。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。