位置: 编程技术 - 正文

Python的爬虫包Beautiful Soup中用正则表达式来搜索(python的爬虫模块)

编辑:rootadmin

推荐整理分享Python的爬虫包Beautiful Soup中用正则表达式来搜索(python的爬虫模块),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:python 爬虫包,python爬虫常用包,python爬虫需要的包,python爬虫常用包,python 爬虫包,python爬虫常用包,python爬虫常用包,python的爬虫程序,内容如对您有帮助,希望把文章链接给更多的朋友!

Beautiful Soup使用时,一般可以通过指定对应的name和attrs去搜索,特定的名字和属性,以找到所需要的部分的html代码。

但是,有时候,会遇到,对于要处理的内容中,其name或attr的值,有多种可能,尤其是符合某一规律,此时,就无法写成固定的值了。

所以,就可以借助正则表达式来解决此问题。比如,

对应的BeautifulSoup代码如下:

而如果html是这种:

那么想要一次性地找到所有的,符合条件的h1的部分的代码,则之前的写法,就只能找到单个的class="h1user"的部分,剩下的两个

就找不到了。

那么,此时,就可以用到,BeautifulSoup中非常好用的,非常强大的功能:

attrs中支持正则表达式的写法

了。

Python的爬虫包Beautiful Soup中用正则表达式来搜索(python的爬虫模块)

就可以写成:

就可以一次性地,找到:

了。

之类的标签,xxx的内容未知(可变)的前提下

想要查找到对应的此div标签,之前不知道如何实现。如果写成:

则xxx必须写出来,如果不写出来属性值,也就没法用上attrs了,就没法实现此处查找特性属性值的标签了。所以针对:

可以通过:

去查找到属性包含aria-lable的div标签的。

所以,对于上面的,之前不知道如何处理:

用BeautifulSoup查找未知属性值,但是已知属性的名字的标签

则此处,就可以针对:

去用:

就可以查找到对应的包含属性aria-lable的div标签了。

实践Python的爬虫框架Scrapy来抓取豆瓣电影TOP 安装部署Scrapy在安装Scrapy前首先需要确定的是已经安装好了Python(目前Scrapy支持Python2.5,Python2.6和Python2.7)。官方文档中介绍了三种方法进行安装,我

深入剖析Python的爬虫框架Scrapy的结构与运作流程 网络爬虫(WebCrawler,Spider)就是一个在网络上乱爬的机器人。当然它通常并不是一个实体的机器人,因为网络本身也是虚拟的东西,所以这个机器人其实

Python中urllib+urllib2+cookielib模块编写爬虫实战 超文本传输协议http构成了万维网的基础,它利用URI(统一资源标识符)来识别Internet上的数据,而指定文档地址的URI被称为URL(既统一资源定位符),

本文链接地址:https://www.jiuchutong.com/biancheng/381292.html 转载请保留说明!

上一篇:Python使用Beautiful Soup包编写爬虫时的一些关键点(beautiful python)

下一篇:深入剖析Python的爬虫框架Scrapy的结构与运作流程(了解python)

免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

鄂ICP备2023003026号

网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

友情链接: 武汉网站建设 电脑维修 湖南楚通运网络