位置: 编程技术 - 正文

python&MongoDB爬取图书馆借阅记录(mongodb python)

编辑:rootadmin

推荐整理分享python&MongoDB爬取图书馆借阅记录(mongodb python),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:python操作mongodb数据库,python爬取数据存入mongodb,python操作mongodb数据库,mongodb orm python,mongodb 爬虫,mongo python,python读取mongodb数据,mongodb python,内容如对您有帮助,希望把文章链接给更多的朋友!

直接上需求和代码首先是需要爬取的链接和网页:  

登陆进去之后进入我的账号——借阅、预约及申请记录——借阅历史就可以看到所要爬取的内容

然后将借阅历史中的题名、著者、借阅日期、归还日期、索书号存入Mongodb数据库中,以上便是这次爬虫的需求。

下面开始:

各软件版本为:

python 2.7. MongoDb 3.2.1 Pycharm 5.0.4 MongoDb Management Studio 1.9.3 极速浏览器 懒得查了

一、登陆模块python中的登陆一般都是用urllib和urllib2这两个模块,首先我们要查看网页的源代码:<form name="loginform" method="post" action="/uhtbin/cgisirsi/&#;ps=nPdFje4RP9/理工大学馆//"><!-- Copyright (c) , Sirsi Corporation - myProfile login or view myFavorites --><!-- Copyright (c) - , Sirsi Corporation - Sets the default values for USER_ID, ALT_ID, and PIN prompts. - The USER_ID, ALT_ID, and PIN page variables will be returned. -->

<!-- If the user has not logged in, first try to default to the ID based on the IP address - the $UO and $Uf will be set. If that fails, then default to the IDs in the config file. If the user has already logged in, default to the logged in user's IDs, unless the user is a shared login. -->

<!-- only user ID is used if both on --> <div class="user_name"> <label for="user_id">借阅证号码:</label> <input class="user_name_input" type="text" name="user_id" id="user_id" maxlength="" value=""/> </div> <div class="password"> <label for="password">个人密码:</label> <input class="password_input" type="password" name="password" id="password" maxlength="" value=""/> </div> <input type="submit" value="用户登录" class="login_button"/>查找网页中的form表单中的action,方法为post,但是随后我们发现,该网页中的action地址不是一定的,是随机变化的,刷新一下就变成了下面这样子的: <form name="loginform" method="post" action="/uhtbin/cgisirsi/&#;ps=1Nimt5K1Lt/理工大学馆//">我们可以看到/&#;ps到/之间的字符串是随机变化的(加粗部分),于是我们需要用到另一个模块——BeautifulSoup实时获取该链接:url = " res = urllib2.urlopen(url).read() soup = BeautifulSoup(res, "html.parser")login_url = " + soup.findAll("form")[1]['action'].encode("utf8")之后就可以正常使用urllib和urllib来模拟登陆了,下面列举一下BeautifulSoup的常用方法,之后的HTML解析需要:

1.soup.contents 该属性可以将tag的子节点以列表的方式输出

2.soup.children 通过tag的.children生成器,可以对tag的子节点进行循环

3.soup.parent 获取某个元素的父节点

4.soup.find_all(name,attrs,recursive,text,**kwargs) 搜索当前tag的所有tag子节点,并判断是否符合过滤器的条件

5.soup.find_all("a",class="xx") 按CSS搜索

6.find(name,attrs,recursive,text,**kwargs) 可以通过limit和find_all区分开

二、解析所获得的HTML

先看看需求中的HTML的特点:<tbody id="tblSuspensions"><!-- OCLN changed Listcode to Le to support charge history --> <!-- SIRSI_List Listcode="LN" -->

python&MongoDB爬取图书馆借阅记录(mongodb python)

<tr> <td class="accountstyle" align="left"> <!-- SIRSI_Conditional IF List_DC_Exists="IB" AND NOT List_DC_Comp="IB^" --><!-- Start title here --> <!-- Title --> 做人要低调,说话要幽默 孙郡铠编著 </td> <td class="accountstyle author" align="left"> <!-- Author --> 孙郡铠 编著 </td> <td class="accountstyle due_date" align="center"> <!-- Date Charged --> /9/,: </td> <td class="accountstyle due_date" align="left"> <!-- Date Returned --> /9/,: </td>

<td class="accountstyle author" align="center"> <!-- Call Number --> B-/S </td>

</tr>

<tr> <td class="accountstyle" align="left"> <!-- SIRSI_Conditional IF List_DC_Exists="IB" AND NOT List_DC_Comp="IB^" --><!-- Start title here --> <!-- Title --> 我用一生去寻找 潘石屹的人生哲学 潘石屹著 </td> <td class="accountstyle author" align="left"> <!-- Author --> 潘石屹, - 著 </td> <td class="accountstyle due_date" align="center"> <!-- Date Charged --> /9/,: </td> <td class="accountstyle due_date" align="left"> <!-- Date Returned --> /9/,: </td>

<td class="accountstyle author" align="center"> <!-- Call Number --> B-/P </td>

</tr>由所有代码,注意这行:

<tbody id="tblSuspensions">该标签表示下面的内容将是借阅书籍的相关信息,我们采用遍历该网页所有子节点的方法获得id="tblSuspensions"的内容: for i, k in enumerate(BeautifulSoup(detail, "html.parser").find(id='tblSuspensions').children): # print i,k if isinstance(k, element.Tag): bookhtml.append(k) # print type(k)三、提取所需要的内容

这一步比较简单,bs4中的BeautifulSoup可以轻易的提取:for i in bookhtml: # p # rint i name = i.find(class_="accountstyle").getText() author = i.find(class_="accountstyle author", align="left").getText() Date_Charged = i.find(class_="accountstyle due_date", align="center").getText() Date_Returned = i.find(class_="accountstyle due_date", align="left").getText() bookid = i.find(class_="accountstyle author", align="center").getText() bookinfo.append( [name.strip(), author.strip(), Date_Charged.strip(), Date_Returned.strip(), bookid.strip()])这一步采用getText()的方法将text中内容提取出来;strip()方法是去掉前后空格,同时可以保留之间的空格,比如:s=" a a ",使用s.strip()之后即为"a a"

四、连接数据库据说NoSQL以后会很流行,随后采用了Mongodb数据库图图新鲜,结果一折腾真是烦,具体安装方法在上一篇日记中记载了。1.导入python连接Mongodb的模块  import pymongo2.创建python和Mongodb的链接:# connection databaseconn = pymongo.MongoClient(" = conn.bookcollection = db.book3.将获得的内容保存到数据库:user = {"_id": xuehao_ben, "Bookname": name.strip(), "Author": author.strip(), "Rent_Day": Date_Charged.strip(), "Return_Day": Date_Returned.strip()} j += 1 collection.insert(user)上面基本完成了,但是爬虫做到这个没有意义,重点在下面

五、获取全校学生的借阅记录

  我们学校的图书馆的密码都是一样的,应该没有人闲得无聊改密码,甚至没有人用过这个网站去查询自己的借阅记录,所以,做个循环,就可以轻易的获取到全校的借阅记录了,然后并没有那么简单,str()强制将int变成string,但是在cmd的python中是报错的(在1位置),在pycharm前面三个0是忽略的,只能用傻瓜式的四个for循环了。好了,下面是所有代码:# encoding=utf8import urllib2import urllibimport pymongoimport socket

from bs4 import BeautifulSoupfrom bs4 import element

# connection databaseconn = pymongo.MongoClient(" = conn.bookcollection = db.book

# 循环开始def xunhuan(xuehao): try: socket.setdefaulttimeout() s = socket.socket(socket.AF_INET, socket.SOCK_STREAM) s.bind((".0.0.1", )) url = " res = urllib2.urlopen(url).read() soup = BeautifulSoup(res, "html.parser") login_url = " + soup.findAll("form")[1]['action'].encode("utf8") params = { "user_id": "账号前缀你猜你猜" + xuehao, "password": "密码你猜猜" } print params params = urllib.urlencode(params) req = urllib2.Request(login_url, params) lianjie = urllib2.urlopen(req) # print lianjie jieyue_res = lianjie.read() # print jieyue_res 首页的HTML代码 houmian = BeautifulSoup(jieyue_res, "html.parser").find_all('a', class_='rootbar')[1]['href'] # print houmian houmian = urllib.quote(houmian.encode('utf8')) url_myaccount = " + houmian # print url_myaccount # print urllib.urlencode(BeautifulSoup(jieyue_res, "html.parser").find_all('a',class_ = 'rootbar')[0]['href'])

lianjie2 = urllib.urlopen(url_myaccount) myaccounthtml = lianjie2.read() detail_url = '' # print (BeautifulSoup(myaccounthtml).find_all('ul',class_='gatelist_table')[0]).children print "连接完成,开始爬取数据" for i in (BeautifulSoup(myaccounthtml, "html.parser").find_all('ul', class_='gatelist_table')[0]).children: if isinstance(i, element.NavigableString): continue for ii in i.children: detail_url = ii['href'] break detail_url = " + urllib.quote(detail_url.encode('utf8')) detail = urllib.urlopen(detail_url).read() # print detail bookhtml = [] bookinfo = []

# 解决没有借书 try: for i, k in enumerate(BeautifulSoup(detail, "html.parser").find(id='tblSuspensions').children): # print i,k if isinstance(k, element.Tag): bookhtml.append(k) # print type(k) print "look here!!!" j = 1 for i in bookhtml: # p # rint i name = i.find(class_="accountstyle").getText() author = i.find(class_="accountstyle author", align="left").getText() Date_Charged = i.find(class_="accountstyle due_date", align="center").getText() Date_Returned = i.find(class_="accountstyle due_date", align="left").getText() bookid = i.find(class_="accountstyle author", align="center").getText() bookinfo.append( [name.strip(), author.strip(), Date_Charged.strip(), Date_Returned.strip(), bookid.strip()]) xuehao_ben = str(xuehao) + str("_") + str(j) user = {"_id": xuehao_ben, "Bookname": name.strip(), "Author": author.strip(), "Rent_Day": Date_Charged.strip(), "Return_Day": Date_Returned.strip()} j += 1 collection.insert(user) except Exception, ee: print ee print "此人没有借过书" user = {"_id": xuehao, "Bookname": "此人", "Author": "没有", "Rent_Day": "借过", "Return_Day": "书"} collection.insert(user)

print "********" + str(xuehao) + "_Finish"+"**********" except Exception, e: s.close() print e print "socket超时,重新运行" xunhuan(xuehao)

# with contextlib.closing(urllib.urlopen(req)) as A:# print A# print xuehao# print req

for i1 in range(0, 6): for i2 in range(0, 9): for i3 in range(0, 9): for i4 in range(0, 9): xueha = str(i1) + str(i2) + str(i3) + str(i4) chushi = '' if chushi == xueha: print "=======爬虫开始==========" else: print xueha + "begin" xunhuan(xueha)

conn.close()print "End!!!"下面是Mongodb Management Studio的显示内容(部分):

  总结:这次爬虫遇到了很多问题,问了很多人,但是最终效果还不是很理想,虽然用了try except语句,但是还是会报错,连接超时(我只能质疑学校的服务器了TT),还有就是,你可以看到数据库中列的顺序不一样=。=这个我暂时未理解,希望大家可以给出解决方法。

标签: mongodb python

本文链接地址:https://www.jiuchutong.com/biancheng/382330.html 转载请保留说明!

上一篇:Python中常用操作字符串的函数与方法总结(python常用操作运算符)

下一篇:深入讲解Java编程中类的生命周期(java编程基础知识入门)

  • 海关完税凭证是交给海关么
  • 先申报财务报表还是企业所得税汇算清缴
  • 养殖合作社属于什么行业
  • 进口货物销售不开票
  • 税控盘锁死提示什么
  • 篮球俱乐部是非洲的吗
  • 小规模开票软件怎么下载
  • 高铁费可抵扣适用税吗
  • 季初资产总额是1,季末是0怎么填
  • 个人境外汇款有限制吗知乎
  • 汇算清缴调增的金额,如何做会计分录
  • 个人到税务局开增值税专用发票
  • 固定资产贷款偿还期计算公式
  • 装修保证金怎么记账
  • 教育服务增值税纳税义务发生时间
  • 物业公司收物业费如何入账
  • 现金流量表年报期末现金余额
  • 多交的应交税费怎么算
  • 采购办公用品计入什么科目
  • 经营性的资产项目有哪些
  • 固定资产报废税费怎么处理
  • 水利基金的计税基础是什么
  • 事业单位事业收入和经营收入要上缴财政
  • 有质量问题的产品案例
  • 无法查明原因现金盘盈计入什么科目
  • 全屏游戏键盘一直打字
  • 关联交易认定标准税务
  • 上年多计提所得税怎么做会计分录
  • 临时设施是租入还是租入
  • 酒店没有营业执照开业犯法吗
  • 没有签订劳动合同上班期间受伤怎么赔偿
  • win服务器安装
  • 企业转让股票交什么税费呢
  • 利息股息红利个人所得税税率
  • PHP函数func_num_args用法实例分析
  • php curl_exec
  • 活动策划印花税选哪个税种
  • vue设置元素不可点击
  • 毕业设计基于plc的全自动包装机
  • 静态html怎么部署到服务器
  • php getcwd与dirname(__FILE__)区别详解
  • 再生资源增值税退税优惠政策
  • 帝国cms如何使用
  • 公司减少注册资本的条件和程序
  • 税控盘减免税款怎么结转
  • 免征水利建设基金条件
  • 税费滞纳金计入营业外支出吗
  • 政府专项资金补助计入什么科目
  • 公司借款私人账户
  • 小规模纳税人申报增值税的操作流程
  • 购买税盘全额抵扣会计分录
  • mysql如何输入数据
  • solaris 修改用户 主目录
  • windows自带截图软件
  • windows提示无法完成更新
  • win7,win8.1,win10命令行配置ip地址图文教程
  • u盘安装vista
  • server core安装完成后按什么进行登录
  • linux中vi编辑器怎么使用
  • centos7设置ssh登录
  • linuxsu命令作用
  • winxp显示设置
  • mac 的 safari 浏览器
  • 网站备份是什么意思
  • Win10系统怎么使用经典事件查看器?
  • win7系统无法共享win10系统打印机
  • win8怎么到win7
  • 常用的linux命令大全
  • unity3d官方教程
  • gpu缩放在哪里打开
  • node.js中的http.response.writeHead方法使用说明
  • android:excludeFromRecents="true"
  • unity安卓手机游戏官网
  • javascript sort方法排序
  • python爬虫爬取网页数据
  • 广东省国家税务总局官网
  • 可以抵扣的消费税有哪些
  • 消费税申报流程图
  • 契税和耕地占用税由谁负责征收
  • 山西国税电子税务局电话
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设