位置: IT常识 - 正文

有反爬机制就爬不了吗?那是你还不知道反反爬,道高一尺魔高一丈啊(常见反爬策略)

编辑:rootadmin
有反爬机制就爬不了吗?那是你还不知道反反爬,道高一尺魔高一丈啊 文章目录一、从用户请求的Headers反爬虫二、基于用户行为反爬虫(1)方法1(2)方法2三、动态页面的反爬虫四.总结

推荐整理分享有反爬机制就爬不了吗?那是你还不知道反反爬,道高一尺魔高一丈啊(常见反爬策略),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:爬虫的反爬机制是不允许被破解的,常见反爬策略,反反爬技术,反爬机制有哪些,反爬怎么办,反爬怎么办,常见反爬策略,反爬机制有哪些,内容如对您有帮助,希望把文章链接给更多的朋友!

不知道你们在用爬虫爬数据的时候是否有发现,越来越多的网站都有自己的反爬机制,抓取数据已经不像以前那么容易,目前常见的反爬机制主要有以下几种:

数据是通过动态加载的,比如微博,今日头条,b站需要登录,需要验证码,比如铁路12306,淘宝,京东请求次数频繁,IP地址在同一时间访问次数过多,导致IP被封数据屏蔽方式,比如访问的数据不在源码中,数据隐藏在js中,比如今日分享,b站

爬虫与反爬虫一直以来就像是左右手互博,你有反爬机制,我就有反反爬技术,即见即可爬,道高一尺魔高一丈。

今天就为大家详细介绍网站的反爬虫机制和实用的应对方法,一般网站从三个方面反爬虫:

1.用户请求的Headers 2.用户行为 3.网站目录和数据加载方式

前两种比较容易遇到,大多数网站都从这些角度来反爬虫。第三种一些应用ajax的网站会采用,这样增大了爬取的难度(防止静态爬虫使用ajax技术动态加载页面)。

一、从用户请求的Headers反爬虫

这种是最常见的反爬机制,在访问某些网站的时候,网站通常会用判断访问是否带有头文件来鉴别该访问是否为爬虫,用来作为反爬取的一种策略。

那我们就需要伪装headers。很多网站都会对Headers的User-Agent进行检测,还有一部分网站会对Referer进行检测(一些资源网站的防盗链就是检测Referer)。

如果遇到了这类反爬虫机制,可以直接在爬虫中添加Headers,将浏览器的User-Agent复制到爬虫的Headers中;或者将Referer值修改为目标网站域名。

往往容易被忽略,通过对请求的抓包分析,确定referer,在程序中模拟访问请求头中添加。

对于检测Headers的反爬虫,在爬虫中修改或者添加Headers就能很好的绕过。

例如打开搜狐首页,先来看一下Chrome的头信息(F12打开开发者模式)如下:

如图,访问头信息中显示了浏览器以及系统的信息(headers所含信息众多,其中User-Agent就是用户浏览器身份的一种标识,具体可自行查询)

Python中urllib中的request模块提供了模拟浏览器访问的功能,代码如下:

from urllib import requesturl = http://www. baidu.com # page= requestRequest (url)# page add header (' User-Agent',' Mozilla/5.0(Windows NT 10.0; Win64; x64) AppleWebkiheaders ={'User-Agent': ' Mozilla/5.0(Windows NT 10.0; Win64; x64) AppleWebkit/537. 36'}page = request Request(url, headersheaders)page_info = request urlopen(page). read().decode('utf-8')print(page_info)

可以通过add_header(key, value) 或者直接以参数的形式和URL一起请求访问

urllib.request Request()urllib.request Request(url, data=None, headers={}, origin req host=None, unverifiable )

其中headers是一个字典,通过这种方式可以将爬虫模拟成浏览器对网站进行访问。

二、基于用户行为反爬虫

还有一部分网站是通过检测用户行为,例如同一IP短时间内多次访问同一页面,或者同一账户短时间内多次进行相同操作。

有反爬机制就爬不了吗?那是你还不知道反反爬,道高一尺魔高一丈啊(常见反爬策略)

这种防爬,需要有足够多的ip来应对。

(1)方法1

大多数网站都是前一种情况,对于这种情况,使用IP代理就可以解决。可以专门写一个爬虫,爬取网上公开的代理ip,检测后全部保存起来。有了大量代理ip后可以每请求几次更换一个ip,这在requests或者urllib中很容易做到,这样就能很容易的绕过第一种反爬虫。

编写爬虫代理:

步骤:

1.参数是一个字典{‘类型’:‘代理ip:端口号’}   proxy_support=urllib.request.ProxyHandler({}) 2.定制、创建一个opener   opener=urllib.request.build_opener(proxy_support) 3.安装opener   urllib.request.install_opener(opener) 4.调用opener   opener.open(url)

用大量代理随机请求目标网站,应对反爬虫

import urllib requestimport random import reurl='http://www. whatismyip. com. tw 'iplist=['121.193.143.249:88',"112.126.65.193:88',122.96.59.184:82',115.29.98.139:9]proxy_support = urllib. request Proxyhandler({'httP': random choice(iplist)})opener = urllib.request.build_opener(proxy_suppor)opener.addheaders=[(' User-Agent, ' Mozilla/5.0(X11; Linux x86-64) AppleWebkit/537.36'urllib.request.install_opener(opener)response = urllib.request.urlopen(url)html = response.read().decode(' utf-8)pattern = re.compile('<h1>(.*?)</h1>.*?<h2>(,*?)</h2>')iterms=re.findall(pattern, html)for item in iterms: print(item[0]+:"+item[1])(2)方法2

对于第二种情况,可以在每次请求后随机间隔几秒再进行下一次请求。有些有逻辑漏洞的网站,可以通过请求几次,退出登录,重新登录,继续请求来绕过同一账号短时间内不能多次进行相同请求的限制。

对于账户做防爬限制,一般难以应对,随机几秒请求也往往可能被封,如果能有多个账户,切换使用,效果更佳。

三、动态页面的反爬虫

上述的几种情况大多都是出现在静态页面,还有一部分网站,我们需要爬取的数据是通过ajax请求得到,或者通过Java生成的。

解决方案:Selenium+PhantomJS

Selenium:自动化web测试解决方案,完全模拟真实的浏览器环境,完全模拟基本上所有的用户操作

PhantomJS :一个没有图形界面的浏览器

比如获取淘宝的个人详情地址:

from selenium import webdriverimport time import re drive = webdriver.PhantomJs(executable_path = ' phantomjs-21.1-linux-x86 64/bin/phanto drive.get('https://mm. taobaocom/self/modelinfohtm? userid=189942305& iscoment=fal)time. sleep(5)pattern = re.compile(r'<div. *? mm-p-domain-info>*? class="mm-p-info-cell clearfix">.html = drive.page_source.encode(' utf-8,' ignore')items=re.findall(pattern, html)for item in items:print(item[0], 'http':+item[1])drive.close()

四.总结

最后给大家总结一下前面所讲的反爬机制应对策略(反反爬):

伪装浏览器

使用代理IP

抓包分析突破异步加载 / selenium自动化测试工具

添加cookie

最后嘱咐大家一句,爬虫世界确实很有意思,技术是无罪的,学习是可以的,但还是实际操作就要适可而止了,不要触碰到法律的边界线。

感谢你们的阅读和喜欢,我收藏了很多技术干货,可以共享给喜欢我文章的朋友们,如果你肯花时间沉下心去学习,它们一定能帮到你,干货内容包括:

点击文末的名片可以抱走

本文链接地址:https://www.jiuchutong.com/zhishi/298974.html 转载请保留说明!

上一篇:Web前端 | HTML嵌入JS代码的三种方式(嵌入html)

下一篇:五、IDEA中创建Web项目(idea2020.2.3创建web)

  • 捐赠支出增值税
  • 开专票了还能不能退款
  • 实收资本账
  • 发票认证延期抵扣啥意思
  • 退所得税的分录
  • 高速公路通行费发票可以抵扣增值税吗
  • 其他应付款在现金流量表中应该填哪里
  • 有支出没有发票应怎么整改
  • 地方教育费附加是什么意思
  • 花卉租赁的税率
  • 物业管理提供的服务变化
  • 专票住宿费认证怎么操作
  • 银行存款二级明细科目有哪些
  • 转口贸易是否缴增值税
  • 怎么核算租赁合同的印花税?
  • 小微企业怎么合法避税
  • 投入资本属于净资产吗
  • 事业单位调整以前年度盈余的收入时会计分录
  • 杜邦分析法的三个核心是什么
  • 进口增值税计入关税完税价格吗
  • 应收款项核销的原因
  • 货币资金包括哪些
  • 商品损耗怎么做会计分录
  • 增值税电子发票公共服务平台
  • win10用户头像错误 设置用户头像失败,请再试一次
  • 王者荣耀中吕布的克星
  • 主营业务收入多栏式怎么填
  • tersafe.dll
  • exe是什么进程
  • 核准类减免税有哪些项目
  • 我的世界1.12.2优化下载
  • 结算成本处理怎么取消
  • 结算借款的账务处理办法
  • 潘塔纳尔湿地位于巴拉圭盆地
  • Yii中CArrayDataProvider和CActiveDataProvider区别实例分析
  • 小规模纳税人低于30万怎么填报申报表
  • let,const,var区别
  • input输入改变边框颜色
  • sed指令可以打印文件的奇数或偶数行
  • 汽车上牌照的费用计入什么会计科目
  • 现金流量表第四个期初现金余额怎么填
  • 怎么升级一般纳税人
  • 帝国cms导航站模板
  • 本期到期债务计算公式
  • python怎么用
  • 所得税汇算清缴退税会计分录怎么做
  • 多提的增值税该怎么做账
  • 分公司是独立的诉讼主体吗
  • 个人所得税专项扣除2023最新政策
  • 个体工商户生产经营所得税税率表2023
  • 个人所得税率怎么退
  • 运输开票的税点是多少
  • 小规模纳税人缴纳本月未交增值税
  • 开办费怎么做帐
  • 生产成本制造费用结转
  • 预收账款是什么资产
  • 内帐与外帐的哪个更好
  • 商业企业的会计科目设置
  • sql server 2012r2
  • 提高搜索
  • 怎么给文件夹设置密码保护
  • 在Windows Server 2012中,管理员默认的用户名是
  • 删除kernel
  • 在linux中使用ssh远程调试后目标板的输出在哪里
  • win8更新错误
  • linux操作系统网课
  • linux中xargs的含义
  • pval 胶水
  • 调用perl脚本
  • ie内存怎么清理
  • js excel解析
  • jquery(document).ready
  • python数据类型详解
  • 国内免费机场
  • 换发票需要交钱吗
  • 税务局报备资产怎么填
  • 上海市浦东新区人民医院
  • 发票盖哪几联
  • 个人利息收入属于什么收入
  • 双休日可以拿房产证吗
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设