fun学网

更新时间:2022-12-27 00:03:09 阅读: 评论:0


2022年12月27日发(作者:网友自拍成人在线视频)

强化学习(Q-funcation,DQN)基本介绍

强化学习和监督,⽆监督学习的关系

这三种同属于机器学习的范畴。

与监督学习的区别:

强化学习(RL)没有预先准备好的训练数据的输出值(label)。

RL只有奖励值,当然奖励值也不是事先给出的,它是延后给出的。

与⽆监督学习的区别:

⽆监督学习没有label,也没有奖励值,只有⼀堆的数据特征。

强化学习的基本要素

基本要素

agent

agent时RL中的中⼼组成部分,我们可以称之为学习者或者是决策者。

nmentenvironment

与agent进⾏交互的外界,我们称之为environment。

action

action就是agent在当前环境中有可能采取的动作。

rdreward

奖励就是agent在当前环境下采取action后的⼀种回应,所以奖励基本上就像⼀个反馈,衡量在那个环境中所采取的⾏动的好坏,成功或失败。奖

励可以是⽴即的,你采取⾏动,你⽴即得到⼀个奖励;奖励也可以是延后的,今天,你采取了⼀个⾏动,你可能直到明天或后天才能得到收益。

以上要素,它们不断地交互,agent选择动作,环境响应这些动作并向agent呈现新的情况。

环境也会带来回报,随着时间的推移,agent通过选择⾏动来最⼤化回报。

这就是强化学习的基本过程。

基于奖励的概念,我们可以得出强化学习中的⼀个重要公式

Ingeneral,weektomaximizetheexpectedreturn,wherethereturn,denoted,is

implestcathereturn

isthesumoftherewards:

其中是0~1范围的值,如果,则该agent只关⼼当前⽴即奖励的最⼤化。当接近1时,agent会更多地考虑未来

的奖励,所以agent变得更加有远见。

⽬前强化学习的算法

基本算法分类

强化学习的算法基本上都包含了价值函数。⼀种价值函数是关于状态的价值函数,⽤来评判agent所处状态的好坏;另⼀种价值函数是关于状

态-动作的价值函数,⽤来评判当前状态s下所采取的⾏动a的好坏。

关于model-free和model-bad的区别(个⼈觉得这位⽹友的评论⽐较容易理解):

Modelbadlearningattemptstomodeltheenvironment,andthenbadonthatmodel,choothe

mostappropriatepolicy.

Model-freelearningattemptstolearntheoptimalpolicyinonestep。

价值函数Q-function介绍

⾸先我们先来定义Q-function:

,其中

Q-function有两个输⼊,其中⼀个是状态s,还有⼀个是在当前状态下agent执⾏的动作a。我们希望⽤Q-function来表⽰agent在状态s下采取

动作a后未来可以获得的总奖励的期望。

策略Policy介绍

⾸先,我们要知道强化学习它的最终⽬标,就是给定任意的状态,我要让agent在那个状态下,采取⼀个最优的⾏动。

所以,agent需要⼀个策略policy来指导它做⾏动。

当然,很容易得到最优的策略定义是。

DeepQNetworks介绍

这⾥谈⼀下为什么要⽤到DQN呢,就是我们现实中的任务,基本上是有很多状态的,⽐如⼀个游戏,每⼀帧,它都是⼀个状态,⽽且每⼀帧包含

的信息都是⾼维度的信息,想把这些状态和对应的Q值存下来⼏乎不可能,所以我们⽤神经⽹络来映射状态到Q值的关系。

DQN模型

左边的模型把⼀个状态和⼀个可能的动作作为输⼊,得到相应的Q值。这个模型的问题是,如果我们现在想要使⽤我们的策略,为了得到最优的Q

值,我们必须循环的输⼊对应的状态和所有可能的⾏动,然后找到最⼤的Q值。这显然是不合理且费时的。

为了解决该问题,我们介绍右边的模型,现在我们只输⼊状态,DQN将会计算所有可能⾏动的Q值,这意味着,如果我们想在给定状态下采取⾏

动,我们只需将状态反馈给⽹络,它就会返回所有的Q值。

这两个情况都可以根据下⽅的Q-loss来更新⽹络的参数。

本文发布于:2022-12-27 00:03:09,感谢您对本站的认可!

本文链接:http://www.wtabcd.cn/fanwen/fan/90/36899.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:fun学网
相关文章
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图