位置: IT常识 - 正文

【强化学习】Q-Learning算法详解

编辑:rootadmin
【强化学习】Q-Learning算法详解 1 Q-Learning算法简介1.1 行为准则

推荐整理分享【强化学习】Q-Learning算法详解,希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

我们做很多事情都有自己的行为准则,比如小时候爸妈常说:不写完作业就不准看电视。所以我们在写作业这种状态下,写的好的行为就是继续写作业,知道写完他,我们还可以得到奖励。不好的行为就是没写完就跑去看电视了,被爸妈发现,后果很严重。小时候这种事情做多了,也就变成我们不可磨灭的记忆。这和我们提到的Q-Learning有什么关系呢?原来Q-Learning也是一个决策过程,和小时候的这种情况差不多。我们举例说明。 假设现在我们处于写作业的状态,而且我们以前没有尝试过写作业时看电视,所以现在我们有两种选择:1,继续写作业,2,跑去看电视。以为以前没有被惩罚过,所以我选看电视,然后现在的状态变成了看电视,我又选了看电视,接着我还是看电视,最后爸妈回家,发现我没写完作业就去看电视了,狠狠的惩罚了我一次,我也深刻地记下了这一次的经历,并在我脑海中将“没写完作业去看电视”这种行为更改为负面行为,我们接下来看看Q-Learning根据很多这样的经历是如何决策的。

1.2 Q-Learning决策

假设我们的行为准则已经学习好了,我们现在处于状态s1,我在写作业,我有两个行为a1,a2,分别是看电视和写作业,根据我的经验,在这种s1状态下,a2写作业带来的潜在奖励要比a1看电视高,这里的潜在奖励我们用一个有关于s和a的Q表格代替。在我的记忆Q表格中,Q(s1, a1)=-2要小于Q(s1, a2)=1,所以我们判断要选择a2作为下一个行为。现在我们的状态更新为s2,我们还是有两个同样的选择,重复上面的过程,在行为准则Q表中寻找Q(s2,a1)Q(s2,a2)的值,并比较他们的大小,选取比较大的一个。接着根据a2我们到达s3并在此重复上面的决策过程。Q-Learning的方法就是这样决策的。看完决策我们在来研究一下这张行为准则Q表是通过什么样的方式更改,提升的。

1.3 Q-Learning更新【强化学习】Q-Learning算法详解

所以回到之前的流程,根据Q表的估计,因为在s1中,a2的值比较大,通过之前的决策方法,我们在s1采取了a2,并到达s2,这是我们开始更新用于决策的Q表,接着我们并没有在实际中采取任何行为,而是再想象自己在s2上采取了每种行为,分别看看两种行为哪一个的Q值大,比如说Q(s2,a2)的值比Q(s2,a1)的大,所以我们把大的Q(s2,a2)乘上一个衰减值γ(比如是0.9)并加上到达s2时所获取的奖励R(这里我们还没有获取到棒棒糖,所以奖励为0)因为会获取实实在在的奖励R,我们将这个作为我现实中Q(s1,a2)的值,但是我们之前是根据Q表估计Q(s1,a2)的值。所以有了现实和估计值,我们就能更新Q(s1,a2),根据估计与现实的差距,将这个差距乘以一个学习效率α累加上老的Q(s1,a2)的值变成新的值。但时刻记住,我们虽然用maxQ(s2)估算了一下s2的状态,但还没有在s2上做出任何的行为,s2的行为决策要等到更新完了以后再重新另外做。这就是off-policy的Q-Learning是如何决策和学习优化决策的过程。

2 Q-Learning整体算法

上图概括了之前所有的内容。这也是Q-Learning的算法,每次更新我们都用到了Q现实和Q估计,而且Q-Learning的迷人之处就是在Q(s1,a2)现实中,也包含了一个Q(s2)的最大估计值,将对下一步的衰减的最大估计和当前所得到的奖励当成这一步的现实。最后描述一下这套算法中一些参数的意义。ε-greedy是用在决策上的一种策略,比如ε=0.9时,就说明有90%的情况我会按照Q表的最优值选择行为,10%的时间使用随机选行为。α是学习率,来决定这次的误差有多少是要被学习的,α是一个小于1的数。γ是对未来reward的衰减值。我们可以这样想: 重写一下Q(s1)的公式,将Q(s2)拆开,因为Q(s2)可以像Q(s1)一样,是关于Q(s3)的,所以可以写成这样,然后以此类推,不停地这样写下去,最后就能携程这样,可以看出Q(s1)是有关于之后所有的奖励,但这些奖励正在衰减,离s1越远的状态衰减越严重。可以想象Q-Learning的机器人天生近视眼,γ=1时,机器人有了一副合适的眼镜,在s1看到的Q是未来没有任何衰变的奖励,也就是机器人能清清楚楚看到之后所有步的全部价值,但是当γ=0,近视机器人没了眼镜,只能摸到眼前的reward,同样也就只在乎最近的大奖励,如果γ从0变到1,眼镜的度数由浅变深,对远处的价值看得越清楚,所以机器人渐渐变得有远见,不仅仅只看眼前的利益,也为自己的未来着想

3 代码解析

可运行的代码地址如下(免费下载):https://download.csdn.net/download/shoppingend/85186697

3.1 Q-Learning算法更新

上面将的整个算法就是一直不断的更新Q-table里的值,然后再根据新的值来判断要在某个state采取怎样的action。Q-Learning是一个off-policy的算法,因为里面的max action让Q-table的更新可以不基于正在经历的经验(也可以是现在学习着很久以前的经验,甚至是学习他人的经验)。不过本例子我们没有运用到 off-policy,而是把Q-Learning用在了on-policy上,也就是现学现卖,将现在经历的直接当场学习并运用。 下面的代码,我们可以根据上面的图片中的算法对应起来,这就是整个 Q-Learning 最重要的迭代更新部分。

def update(): # 学习 100 回合 for episode in range(100): # 初始化 state 的观测值 observation = env.reset() while True: # 更新可视化环境 env.render() # RL 大脑根据 state 的观测值挑选 action action = RL.choose_action(str(observation)) # 探索者在环境中实施这个 action, 并得到环境返回的下一个 state 观测值, reward 和 done (是否是掉下地狱或者升上天堂) observation_, reward, done = env.step(action) # RL 从这个序列 (state, action, reward, state_) 中学习 RL.learn(str(observation), action, reward, str(observation_)) # 将下一个 state 的值传到下一次循环 observation = observation_ # 如果掉下地狱或者升上天堂, 这回合就结束了 if done: break # 结束游戏并关闭窗口 print('game over') env.destroy()if __name__ == "__main__": # 定义环境 env 和 RL 方式 env = Maze() RL = QLearningTable(actions=list(range(env.n_actions))) # 开始可视化环境 env env.after(100, update) env.mainloop()3.2 主结构class QLearningTable: # 初始化 def __init__(self, actions, learning_rate=0.01, reward_decay=0.9, e_greedy=0.9): # 选行为 def choose_action(self, observation): # 学习更新参数 def learn(self, s, a, r, s_): # 检测 state 是否存在 def check_state_exist(self, state):3.3 预设值import numpy as npimport pandas as pdclass QLearningTable: def __init__(self, actions, learning_rate=0.01, reward_decay=0.9, e_greedy=0.9): self.actions = actions # a list self.lr = learning_rate # 学习率 self.gamma = reward_decay # 奖励衰减 self.epsilon = e_greedy # 贪婪度 self.q_table = pd.DataFrame(columns=self.actions, dtype=np.float64) 3.4 决定行为 def choose_action(self, observation): self.check_state_exist(observation) # 检测本 state 是否在 q_table 中存在(见后面标题内容) # 选择 action if np.random.uniform() < self.epsilon: # 选择 Q value 最高的 action state_action = self.q_table.loc[observation, :] # 同一个 state, 可能会有多个相同的 Q action value, 所以我们乱序一下 action = np.random.choice(state_action[state_action == np.max(state_action)].index) else: # 随机选择 action action = np.random.choice(self.actions) return action3.5 学习

我们根据是否是terminal state(回合终止符)来判断应该如何更新Q-table。更新的方式:update = self.lr * (q_target - q_predict) 这可以理解成神经网络中的更新方式,学习率 ×(真实值 - 预测值)。将判断的误差传递回去,有着和神经网络更新的异曲同工之妙。

def learn(self, s, a, r, s_): self.check_state_exist(s_) # 检测 q_table 中是否存在 s_ (见后面标题内容) q_predict = self.q_table.loc[s, a] if s_ != 'terminal': q_target = r + self.gamma * self.q_table.loc[s_, :].max() # 下个 state 不是 终止符 else: q_target = r # 下个 state 是终止符 self.q_table.loc[s, a] += self.lr * (q_target - q_predict) # 更新对应的 state-action 值3.6 检测state是否存在

这个功能就是检测Q-table中有没有当前state的步骤了,如果还没有当前的state,那么我们就插入一组全0数据,当做这个state的所有action初始values。

def check_state_exist(self, state): if state not in self.q_table.index: # append new state to q table self.q_table = self.q_table.append( pd.Series( [0]*len(self.actions), index=self.q_table.columns, name=state, ) )

文章来源:莫凡强化学习https://mofanpy.com/tutorials/machine-learning/reinforcement-learning/

本文链接地址:https://www.jiuchutong.com/zhishi/299802.html 转载请保留说明!

上一篇:01-Node-Express系统框架搭建(express-generator)(node express安装)

下一篇:从傅里叶变换到小波变换详细解释(含代码)(傅里叶变换的过程)

  • 三星s10电池容量是多少毫安(三星s10电池容量查询)

    三星s10电池容量是多少毫安(三星s10电池容量查询)

  • vivo NEX 3s的解锁方式包括哪些(vivo nex怎么解锁)

    vivo NEX 3s的解锁方式包括哪些(vivo nex怎么解锁)

  • 苹果屏幕使用时间不准(苹果屏幕使用时间准确吗)

    苹果屏幕使用时间不准(苹果屏幕使用时间准确吗)

  • 电源长的是正还是负(电源从长的出还是短的)

    电源长的是正还是负(电源从长的出还是短的)

  • 电脑页面截图快捷键是什么(电脑页面截图快捷键)

    电脑页面截图快捷键是什么(电脑页面截图快捷键)

  • 华为nova6可以无线反向充电吗(华为nova10se手机怎么样)

    华为nova6可以无线反向充电吗(华为nova10se手机怎么样)

  • 荣耀v10支持多少w快充(荣耀V10支持多少G的内存卡?)

    荣耀v10支持多少w快充(荣耀V10支持多少G的内存卡?)

  • 个人能在亚马逊上开店吗(个人在亚马逊网上开店)

    个人能在亚马逊上开店吗(个人在亚马逊网上开店)

  • 手机开不了热点怎么回事(为什么小米手机开不了热点)

    手机开不了热点怎么回事(为什么小米手机开不了热点)

  • 虚拟内存影响玩游戏吗(虚拟内存可以用来玩游戏吗)

    虚拟内存影响玩游戏吗(虚拟内存可以用来玩游戏吗)

  • 3g和4g有什么区别(3g和4g哪个好)

    3g和4g有什么区别(3g和4g哪个好)

  • 酷狗vip下载的歌是永久的吗(酷狗vip下载的歌曲怎么转换mp3)

    酷狗vip下载的歌是永久的吗(酷狗vip下载的歌曲怎么转换mp3)

  • oppor11是什么处理器(oppor11s是什么手机)

    oppor11是什么处理器(oppor11s是什么手机)

  • 苹果11刷机有什么影响(苹果11刷机有什么用)

    苹果11刷机有什么影响(苹果11刷机有什么用)

  • 小米mix2s快充多少瓦(小米mix2s5a快充)

    小米mix2s快充多少瓦(小米mix2s5a快充)

  • 如何解除手机通话限制(如何解除手机通话录音)

    如何解除手机通话限制(如何解除手机通话录音)

  • 苹果手机怎么关闭运行(苹果手机怎么关闭运行的app)

    苹果手机怎么关闭运行(苹果手机怎么关闭运行的app)

  • 电信4g+hd什么意思(电信4g+hd是什么意思)

    电信4g+hd什么意思(电信4g+hd是什么意思)

  • 荣耀手环4和5的区别(荣耀手环4和5有什么区别?)

    荣耀手环4和5的区别(荣耀手环4和5有什么区别?)

  • 扫一扫怎么改成前置(扫一扫直接变成文字)

    扫一扫怎么改成前置(扫一扫直接变成文字)

  • mate20后盖什么材质(华为mate 20原装后盖)

    mate20后盖什么材质(华为mate 20原装后盖)

  • word一级二级三级标题如何设置(word一级二级三级标题字体)

    word一级二级三级标题如何设置(word一级二级三级标题字体)

  • 面对面建群谁是群主(面对面建群谁是群主如何踢人)

    面对面建群谁是群主(面对面建群谁是群主如何踢人)

  • kazaalite.exe是什么进程 kazaalite进程有什么用

    kazaalite.exe是什么进程 kazaalite进程有什么用

  • Unity脚本类 ---- Input类,虚拟轴与插值方法(unity常用脚本语言)

    Unity脚本类 ---- Input类,虚拟轴与插值方法(unity常用脚本语言)

  • 个人独资企业的责任承担
  • 增值税留抵税额账务处理
  • 固定资产转让怎么做账
  • 财税咨询
  • 一般户付款能开增值税票吗
  • 网银制单了没有审核有影响吗
  • 小规模免税的税额怎么处理
  • 进项票错了但是销项票开出去了怎么办
  • 个人提供技术服务费开票税率
  • 企业增资认缴是什么意思
  • 资金账簿印花税减半征收是从什么时候开始的
  • 盈余公积转增资本有限制吗
  • 个人如何开劳务费怎么开
  • 集体土地上的不动产能符合异议28条规定吗
  • 药店可以开具专票吗
  • 集团公司转股要交印花税吗?
  • 发票作废情况说明书
  • 开具红字发票退税准备什么资料?
  • 股东借款利息计入利润表哪个科目
  • 汇算清缴的年报在哪里查询
  • 1697509550
  • 纳税评估要转出什么意思
  • 有限责任公司的人员构成
  • cmos电池耗尽
  • 增值税发票是不是可以抵税
  • 实习生短期意外保险能企业所得税前扣除吗?
  • nod32kui.exe - nod32kui是什么进程 作用是什么
  • 收到投资方投入原材料
  • PHP:Memcached::touchByKey()的用法_Memcached类
  • 发票开具时限是怎么规定的
  • 非盈利组织盈利怎么办
  • php获取get请求数据
  • php如何获取当前时间
  • 固定资产盘盈的账务处理
  • bug的定位和跟踪
  • 生产加工企业的成本核算
  • 委托 研发费用
  • 房地产股权转让涉及哪些税费
  • 员工意外伤害保险最多赔多少
  • 抵押房产的保险费
  • vue移动组件
  • python中字符串转数字函数
  • 会计成本应如何结转
  • 项目竣工决算审查
  • Sql server 2008 express远程登录实例设置 图文教程
  • 小规模纳税人应交税费的二级科目
  • 营业成本怎么理解
  • 纳税调整调减有哪些
  • 当月发生逾期押金收入12870元
  • 小微企业可以享受六税两费吗
  • 双倍余额递减法例题及解析
  • 待摊费用和预付费用的区别
  • 质量问题举例
  • 企业收到委托开具发票
  • 购房发票可以开专票
  • 主营业务成本怎么核算
  • 建账的依据是什么
  • sql server的存储方式
  • windows2003怎么开启远程
  • windows8出现蓝屏
  • windows8自动更新卡住了怎么办
  • u盘安装win8系统教程
  • WIN10系统中软件打开找不到网络共享盘
  • ubuntu命令联网
  • spvic.exe - spvic是什么进程 有什么作用
  • 升级win10系统后无法联网的三种解决方法
  • Windows环境下搭建Python开发环境的方法
  • python到底怎么学
  • opengl基础知识
  • html概念及作用
  • vue动态路由传参
  • 怎样使用jquery
  • python saga
  • python设计gui
  • js构造器constructor
  • 石家庄有线电视客服电话9688
  • 办图书馆怎么审批
  • 长沙市各个区的县市排名
  • 金融商品转让是什么意思
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设