Python爬虫:抓取手机APP的数据

2017 年 9 月 3 日 程序猿
来自:j_hao104的个人页面

链接:https://my.oschina.net/jhao104/blog/606922(点击尾部阅读原文前往)

摘要

大多数APP里面返回的是json格式数据,或者一堆加密过的数据 。这里以超级课程表APP为例,抓取超级课程表里用户发的话题。

1
抓取APP数据包


方法详细可以参考这篇博文:http://my.oschina.net/jhao104/blog/605963


得到超级课程表登录的地址:http://120.55.151.61/V2/StudentSkip/loginCheckV4.action


表单:


表单中包括了用户名和密码,当然都是加密过了的,还有一个设备信息,直接post过去就是。


另外必须加header,一开始我没有加header得到的是登录错误,所以要带上header信息。


2
登录


登录代码:

import urllib2   from cookielib import CookieJar   loginUrl = 'http://120.55.151.61/V2/StudentSkip/loginCheckV4.action'   headers = {       'Content-Type': 'application/x-www-form-urlencoded; charset=UTF-8',       'User-Agent': 'Dalvik/1.6.0 (Linux; U; Android 4.1.1; M040 Build/JRO03H)',       'Host': '120.55.151.61',       'Connection': 'Keep-Alive',       'Accept-Encoding': 'gzip',       'Content-Length': '207',       }   loginData = 'phoneBrand=Meizu&platform=1&deviceCode=868033014919494&account=FCF030E1F2F6341C1C93BE5BBC422A3D&phoneVersion=16&password=A55B48BB75C79200379D82A18C5F47D6&channel=MXMarket&phoneModel=M040&versionNumber=7.2.1&'   
cookieJar = CookieJar()   opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookieJar))   req = urllib2.Request(loginUrl, loginData, headers)   loginResult = opener.open(req).read()   print loginResult

登录成功 会返回一串账号信息的json数据



和抓包时返回数据一样,证明登录成功


3
抓取数据


    用同样方法得到话题的url和post参数

  

  做法就和模拟登录网站一样。详见:http://my.oschina.net/jhao104/blog/547311

    下见最终代码,有主页获取和下拉加载更新。可以无限加载话题内容。

#!/usr/local/bin/python2.7   # -*- coding: utf8 -*-   """     超级课程表话题抓取   """   import urllib2   from cookielib import CookieJar   import json   ''' 读Json数据 '''   def fetch_data(json_data):       data = json_data['data']       timestampLong = data['timestampLong']       messageBO = data['messageBOs']       topicList = []       for each in messageBO:           topicDict = {}           if each.get('content', False):               topicDict['content'] = each['content']               topicDict['schoolName'] = each['schoolName']               topicDict['messageId'] = each['messageId']               topicDict['gender'] = each['studentBO']['gender']               topicDict['time'] = each['issueTime']               print each['schoolName'],each['content']               topicList.append(topicDict)       return timestampLong, topicList   ''' 加载更多 '''   def load(timestamp, headers, url):       headers['Content-Length'] = '159'       loadData = 'timestamp=%s&phoneBrand=Meizu&platform=1&genderType=-1&topicId=19&phoneVersion=16&selectType=3&channel=MXMarket&phoneModel=M040&versionNumber=7.2.1&' % timestamp       req = urllib2.Request(url, loadData, headers)       loadResult = opener.open(req).read()       loginStatus = json.loads(loadResult).get('status', False)       if loginStatus == 1:           print 'load successful!'           timestamp, topicList = fetch_data(json.loads(loadResult))           load(timestamp, headers, url)       else:           print 'load fail'           print loadResult           return False   loginUrl = 'http://120.55.151.61/V2/StudentSkip/loginCheckV4.action'   topicUrl = 'http://120.55.151.61/V2/Treehole/Message/getMessageByTopicIdV3.action'   headers = {       'Content-Type': 'application/x-www-form-urlencoded; charset=UTF-8',       'User-Agent': 'Dalvik/1.6.0 (Linux; U; Android 4.1.1; M040 Build/JRO03H)',       'Host': '120.55.151.61',       'Connection': 'Keep-Alive',       'Accept-Encoding': 'gzip',       'Content-Length': '207',       }   ''' ---登录部分--- '''   
loginData = 'phoneBrand=Meizu&platform=1&deviceCode=868033014919494&account=FCF030E1F2F6341C1C93BE5BBC422A3D&phoneVersion=16&password=A55B48BB75C79200379D82A18C5F47D6&channel=MXMarket&phoneModel=M040&versionNumber=7.2.1&'  
cookieJar = CookieJar()   opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookieJar))   req = urllib2.Request(loginUrl, loginData, headers)   loginResult = opener.open(req).read()   loginStatus = json.loads(loginResult).get('data', False)   if loginResult:       print 'login successful!'   else:       print 'login fail'       print loginResult   ''' ---获取话题--- '''  
topicData = 'timestamp=0&phoneBrand=Meizu&platform=1&genderType=-1&topicId=19&phoneVersion=16&selectType=3&channel=MXMarket&phoneModel=M040&versionNumber=7.2.1&'  
headers['Content-Length'] = '147'  
topicRequest = urllib2.Request(topicUrl, topicData, headers)   topicHtml = opener.open(topicRequest).read()   topicJson = json.loads(topicHtml)   topicStatus = topicJson.get('status', False)   print topicJson   if topicStatus == 1:       print 'fetch topic success!'       timestamp, topicList = fetch_data(topicJson)       load(timestamp, headers, topicUrl)

结果:




●本文编号2595,以后想阅读这篇文章直接输入2595即可

●输入m获取文章目录

推荐↓↓↓
 

大数据技术

更多推荐18个技术类微信公众号

涵盖:程序人生、算法与数据结构、黑客技术与网络安全、大数据技术、前端开发、Java、Python、Web开发、安卓开发、iOS开发、C/C++、.NET、Linux、数据库、运维等。

登录查看更多
0

相关内容

【我是个什么鬼?】 大学生都在玩的App,让你的学习&生活&社交面面俱到。 是个人见人爱的小婊砸:)
【2020新书】实战R语言4,323页pdf
专知会员服务
102+阅读 · 2020年7月1日
一份简明有趣的Python学习教程,42页pdf
专知会员服务
77+阅读 · 2020年6月22日
Python地理数据处理,362页pdf,Geoprocessing with Python
专知会员服务
115+阅读 · 2020年5月24日
【实用书】Python爬虫Web抓取数据,第二版,306页pdf
专知会员服务
122+阅读 · 2020年5月10日
Keras作者François Chollet推荐的开源图像搜索引擎项目Sis
专知会员服务
30+阅读 · 2019年10月17日
MIT新书《强化学习与最优控制》
专知会员服务
280+阅读 · 2019年10月9日
已删除
架构文摘
3+阅读 · 2019年4月17日
GitHub 热门:各大网站的 Python 爬虫登录汇总
机器学习算法与Python学习
9+阅读 · 2019年3月20日
抖音爬虫
专知
3+阅读 · 2019年2月11日
比Selenium快100倍的方法爬东方财富网财务报表
程序人生
8+阅读 · 2018年10月31日
Python 爬虫实践:《战狼2》豆瓣影评分析
数据库开发
5+阅读 · 2018年3月19日
《小美好》短评文本情感分析+生成词云
数据挖掘入门与实战
5+阅读 · 2018年1月7日
教你用Python爬虫股票评论,简单分析股民用户情绪
数据派THU
10+阅读 · 2017年12月12日
【宁波站】网络爬虫与文本挖掘
数萃大数据
5+阅读 · 2017年7月19日
Attend More Times for Image Captioning
Arxiv
6+阅读 · 2018年12月8日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
3+阅读 · 2018年4月5日
Arxiv
13+阅读 · 2018年1月11日
VIP会员
相关资讯
已删除
架构文摘
3+阅读 · 2019年4月17日
GitHub 热门:各大网站的 Python 爬虫登录汇总
机器学习算法与Python学习
9+阅读 · 2019年3月20日
抖音爬虫
专知
3+阅读 · 2019年2月11日
比Selenium快100倍的方法爬东方财富网财务报表
程序人生
8+阅读 · 2018年10月31日
Python 爬虫实践:《战狼2》豆瓣影评分析
数据库开发
5+阅读 · 2018年3月19日
《小美好》短评文本情感分析+生成词云
数据挖掘入门与实战
5+阅读 · 2018年1月7日
教你用Python爬虫股票评论,简单分析股民用户情绪
数据派THU
10+阅读 · 2017年12月12日
【宁波站】网络爬虫与文本挖掘
数萃大数据
5+阅读 · 2017年7月19日
Top
微信扫码咨询专知VIP会员