位置: 编程技术 - 正文

python编写简单爬虫资料汇总(python怎么写爬虫)

编辑:rootadmin

推荐整理分享python编写简单爬虫资料汇总(python怎么写爬虫),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:python怎么写爬虫,用python爬,python编写爬虫,用python写一个简单的爬虫,python简单爬虫代码,python入门,用python爬,python怎么写爬虫,用python爬,内容如对您有帮助,希望把文章链接给更多的朋友!

  爬虫真是一件有意思的事儿啊,之前写过爬虫,用的是urllib2、BeautifulSoup实现简单爬虫,scrapy也有实现过。最近想更好的学习爬虫,那么就尽可能的做记录吧。这篇博客就我今天的一个学习过程写写吧。

一 正则表达式

  正则表达式是一个很强大的工具了,众多的语法规则,我在爬虫中常用的有:

. 匹配任意字符(换行符除外) * 匹配前一个字符0或无限次 &#; 匹配前一个字符0或1次 .* 贪心算法 .*&#; 非贪心算法 (.*&#;) 将匹配到的括号中的结果输出 d 匹配数字 re.S 使得.可以匹配换行符

  常用的方法有:find_all(),search(),sub()

  对以上语法方法做以练习,代码见: urllib和urllib2

  urllib和urllib2库是学习Python爬虫最基本的库,利用该库,我们可以得到网页的内容,同时,可以结合正则对这些内容提取分析,得到真正想要的结果。

python编写简单爬虫资料汇总(python怎么写爬虫)

  在此将urllib和urllib2结合正则爬取了糗事百科中的作者点赞数内容。

  代码见: BeautifulSoup

  BeautifulSoup是Python的一个库,最主要的功能是从网页抓取数据,官方介绍是这样的:  Beautiful Soup 提供一些简单的、python 式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。  Beautiful Soup 自动将输入文档转换为 Unicode 编码,输出文档转换为 utf-8 编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup 就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。  Beautiful Soup 已成为和 lxml、html6lib 一样出色的 python 解释器,为用户灵活地提供不同的解析策略或强劲的速度。

  首先:爬取百度百科Python词条下相关的个页面,爬取的页面值自己设定。

  代码详见:  代码运行:

  

       

  巩固篇,依据豆瓣中图书的标签得到一个书单,同样使用BeautifulSoup。

  代码详见:  运行结果:  

   

本文链接地址:https://www.jiuchutong.com/biancheng/384394.html 转载请保留说明!

上一篇:使用Nginx+uWsgi实现Python的Django框架站点动静分离(如何使用nginx)

下一篇:Python使用Redis实现作业调度系统(超简单)(python的redis)

免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

鄂ICP备2023003026号

网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

友情链接: 武汉网站建设 电脑维修 湖南楚通运网络