位置: 编程技术 - 正文
推荐整理分享Python的爬虫包Beautiful Soup中用正则表达式来搜索(python的爬虫模块),希望有所帮助,仅作参考,欢迎阅读内容。
文章相关热门搜索词:python 爬虫包,python爬虫常用包,python爬虫需要的包,python爬虫常用包,python 爬虫包,python爬虫常用包,python爬虫常用包,python的爬虫程序,内容如对您有帮助,希望把文章链接给更多的朋友!
Beautiful Soup使用时,一般可以通过指定对应的name和attrs去搜索,特定的名字和属性,以找到所需要的部分的html代码。
但是,有时候,会遇到,对于要处理的内容中,其name或attr的值,有多种可能,尤其是符合某一规律,此时,就无法写成固定的值了。
所以,就可以借助正则表达式来解决此问题。比如,
对应的BeautifulSoup代码如下:
而如果html是这种:
那么想要一次性地找到所有的,符合条件的h1的部分的代码,则之前的写法,就只能找到单个的class="h1user"的部分,剩下的两个
和
就找不到了。
那么,此时,就可以用到,BeautifulSoup中非常好用的,非常强大的功能:
attrs中支持正则表达式的写法
了。
就可以写成:
就可以一次性地,找到:
了。
之类的标签,xxx的内容未知(可变)的前提下想要查找到对应的此div标签,之前不知道如何实现。如果写成:
则xxx必须写出来,如果不写出来属性值,也就没法用上attrs了,就没法实现此处查找特性属性值的标签了。所以针对:
可以通过:
去查找到属性包含aria-lable的div标签的。
所以,对于上面的,之前不知道如何处理:
用BeautifulSoup查找未知属性值,但是已知属性的名字的标签
则此处,就可以针对:
去用:
就可以查找到对应的包含属性aria-lable的div标签了。
实践Python的爬虫框架Scrapy来抓取豆瓣电影TOP 安装部署Scrapy在安装Scrapy前首先需要确定的是已经安装好了Python(目前Scrapy支持Python2.5,Python2.6和Python2.7)。官方文档中介绍了三种方法进行安装,我
深入剖析Python的爬虫框架Scrapy的结构与运作流程 网络爬虫(WebCrawler,Spider)就是一个在网络上乱爬的机器人。当然它通常并不是一个实体的机器人,因为网络本身也是虚拟的东西,所以这个机器人其实
Python中urllib+urllib2+cookielib模块编写爬虫实战 超文本传输协议http构成了万维网的基础,它利用URI(统一资源标识符)来识别Internet上的数据,而指定文档地址的URI被称为URL(既统一资源定位符),
标签: python的爬虫模块
本文链接地址:https://www.jiuchutong.com/biancheng/381292.html 转载请保留说明!上一篇:Python使用Beautiful Soup包编写爬虫时的一些关键点(beautiful python)
下一篇:深入剖析Python的爬虫框架Scrapy的结构与运作流程(了解python)
友情链接: 武汉网站建设