图解强化学习:怎么让ChatGPT们变得更智能?

Model-free。

大多数实际问题都是。Approaches(基于模型的方法)

基于模型的方法可以得出每个状态和行动交互的精确结果,因此可以通过分析找到解决方案,而无需与环境进行实际交互。

这种情况下,该状态下的回报与采取该行动获得的奖励相同。收益方程

总体上,任何状态的回报都可以被拆解为两个部分:一是从当前状态到下一个状态的即时奖励。

在系列的前两篇文章中,主要介绍了强化学习的基础概念:《图解强化学习——基础概念 1》《图解强化学习——基础概念 2》。

本文是《图解强化学习》系列的第三篇文章,主要介绍强化学习流行的解决方案,对这些方案进行分类,并着重阐述了贝尔曼方程。

贝尔曼方法是所有强化学习算法的基础,从贝尔曼方程出发,更容易理解后续各种强化学习算法的原理。

一、RL 问题解决方案分类

我们已经知道,解决一个 RL 问题即是找到最优策略(Optimal Policy)或最优值(Optimal Value)。找到 Optimal Policy 有许多算法,这些算法可以根据不同的原理和应用场景进行分类。

1. 通过“基于模型的 VS 无模型“进行分类:

广义上讲,寻找最优策略的算法可以分为两大类:

  • 基于模型的解决方案——Model-based approaches

  • 无模型的解决方案——Model-free approaches

Model-based 方法适用于已知环境内部运行情况的场景。换句话说,当从某个当前状态开始执行某个操作时,我们可以准确判断,环境给出的下一个状态(Next State)和奖励(Raward)是怎样的。

Model-free 方法适用于环境非常复杂,且其内部动态不为人知的情况。这种方法将环境视为一个“黑盒”,不尝试去理解里面的具体运作机制,而是直接观察输入和输出间的关系。

2. 通过”预测 VS 控制“进行分类

另一种较高维度的区分方法是通过预测(Prediction)和控制(Control)

  • 预测问题-Prediction problem:在这类问题中,我们的目标是给定一个策略,预测使用此策略能得到的累积回报,也即价值函数。此处的策略可以是任何策略,并不限于最优策略。

  • 控制问题-Control problem:控制问题不提前给定策略,而是通过不断尝试与探索,在所有可能策略中找到能够获得最大回报的最优策略。

大多数实际问题都是 Control problems,因为我们的目标是找到最优策略 Optimal Policy。

3. RL 算法分类

根据以上的分类方法,常见的 RL 算法分类如下:

现实世界中,大部分的 RL 问题都属于 Model-free 的控制问题。因此,本系列内容将主要聚焦于这一类问题,对基于模型的解决方案只做简略讨论。

二、Model-based Approaches(基于模型的方法)

基于模型的方法可以得出每个状态和行动交互的精确结果,因此可以通过分析找到解决方案,而无需与环境进行实际交互。例如,在使用基于模型的方法下棋时,你需要将所有棋局的规则和策略编码在程序中。

与之相对,无模型算法对棋局规则一无所知,它通过观察动作和获得的奖励来抽象地学习游戏。

由于现实环境的复杂性,构建一个完整的模型往往是不可行的,这就是为什么大多数现实问题采用Model-free的方法。

三、Model-free Approache(无模型方法)

Model-free 方法依赖于与环境的直接互动来学习。这种方法不预设环境的内部机制,而是通过一系列的试错,观察每一次动作后环境的反馈(状态变化和奖励),从而学习如何在这个环境中取得最佳表现。

1. 与环境互动

在 Model-free 的学习过程中,由于环境的内部机制对我们来说是不可见的,算法必须通过直接互动来“观察”环境的行为。

算法扮演 Agent 的角色,每执行一个动作,就记录下其后环境的反应(即下一个状态和相应的奖励),并根据这些信息不断调整策略,是一个持续学习与适应过程。

这一学习过程,类似于人类通过尝试和错误获得经验一样,算法通过执行动作并根据反馈(正面或负面)来逐步调整其行为。

2. 互动的轨迹即为 Agent 的 training data

在与环境互动时,Agent 每个时间步的动作都构成了一条特定的路径,即所谓的“轨迹”。

Agent 的轨迹就形成了算法学习和训练的基础数据。

四、Bellman方程:强化学习的数学基础

在了解用于解决 RL 问题的算法之前,我们需要学习一点数学知识,以便更准确地理解这些概念。

Bellman方程基于一个简单而直观的数学关系,是所有强化学习算法的核心。虽然这个方程有不同的变形,但它们都源于一个共同的基本概念。通过逐步解析,我们可以更好地理解这一概念。

1. 从终止状态回溯Work back from a Terminal State

考虑这样一个场景:Agent 从某一状态出发,只采取了一个行动,就到达了终止状态。

这种情况下,该状态下的回报与采取该行动获得的奖励相同。即:G7 = R7。

现在考虑之前的状态 S6。S6 的回报 =为达到 S7 采取行动获得的奖励+从 G7 到达终止状态的折扣回报。即:G6  = R6+γR7 = R6+γG7。

2. 回报的 Bellman 收益方程

总体上,任何状态的回报都可以被拆解为两个部分:一是从当前状态到下一个状态的即时奖励;二是从下一个状态开始,按照特定策略行动,未来的折扣回报。这种递归关系被称为 Bellman 方程。

3. 状态价值函数的 Bellman 方程

如果说“回报”关注的是单一路径上的累积奖励,那么“状态价值(State Value)”则是考虑了在多条路径上,平均情况下的预期回报。换言之,状态价值综合考量了从某状态出发,采取各种可能动作所能获得的回报的平均水平。

因此,状态价值(State Value)同样可以被分解为两部分:一部分是从当前状态出发,执行下一个动作所获得的即时奖励;另一部分是考虑时间折扣后的,从下一状态继续遵循策略所能带来的价值。

3. 状态-动作对价值函数的贝尔曼期望方程

同样,“状态-动作价值(State-Action Value)”也可分解为两部分:达到下一状态的行动所带来的即时奖励,以及在所有后续步骤中遵循该策略所获得的下一状态的折扣价值。

五、Bellman方程为什么有用?

从贝尔曼方程中,我们可以得出两个重要结论。

1. 递归计算回报

第一点,为了计算回报,我们不必走完一个回合。一个回合可能很长,或遍历成本很高,也可能永无止境。我们可以利用这种递归关系。如果知道下一步的回报,就可以使用它。在 RL 过程中,只需要迈出第一步,观察到这一步的回报,然后使用后续时间步的回报,而无需遍历之后的整个回合。

2. 基于估算而非精确值

第二点,涉及计算同一目标的两种方法:一种方法是基于当前状态直接计算的回报(Return);另一种方法是将单步的奖励(reward)与下一状态的回报相加。

要直接测量从某个状态开始直至整个回合结束的实际回报,计算代价很高,我们通常采用回报的估计值。通过这两种不同的方法来计算这些估计值,并通过对比两个结果来验证估计的准确性。

考虑到这些仅是估计值而非精确值,两种计算方法得出的结果可能会有所不同。这即是估计中的误差。误差可以帮助我们改进估算结果,以减少误差的方式修正估算结果。

请牢记这两个概念,因为所有强化学习算法都会用到它们。

总结

现在,我们对强化学习(RL)问题及其解决方案有了初步认识,是时候深入探讨解决这些问题所采用的技术了。鉴于在实际问题中最常采用的是 model-free 方法,我们将聚焦于此。这将是下一篇文章的讨论焦点。

本文来自微信公众号:Afunby的 AI Lab(ID:AI_Lab_of_Afunby),作者:Afunby

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
Like (0)
Previous 2024年5月9日
Next 2024年5月9日

相关推荐

  • 水温80度:AI行业真假繁荣的临界点

    我们从来没拥有过这么成功的AI主导的产品。

    (这种分析统计并不那么准,但大致数量级是差不多的)

    这两个产品碰巧可以用来比较有两个原因:

    一个是它们在本质上是一种东西,只不过一个更通用,一个更垂直。

    蓝海的海峡

    未来成功的AI产品是什么样,大致形态已经比较清楚了,从智能音箱和Copilot这两个成功的AI产品上已经能看到足够的产品特征。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时“罢工”,全网打工人都慌了

    美西时间午夜12点开始,陆续有用户发现自己的ChatGPT要么响应超时、要么没有对话框或提示流量过载,忽然无法正常工作了。

    因为发现AI用久了,导致现在“离了ChatGPT,大脑根本无法运转”。”

    等等,又不是只有一个聊天机器人,难道地球离了ChatGPT就不转了。

    大模型连崩原因猜想,谷歌躺赢流量激增6成

    GPT归位,人们的工作终于又恢复了秩序。

    未来科技 2024年6月5日
  • ChatGPT宕机8小时,谷歌Gemini搜索量激增60%

    ChatGPT一天宕机两次

    谷歌Gemini搜索量激增近60%

    ChatGPT在全球拥有约1.8亿活跃用户,已成为部分人群工作流程的关键部分。

    过去24小时内提交的关于OpenAI宕机的问题报告

    图片来源:Downdetector

    ChatGPT系统崩溃后,有网友在社交媒体X上发帖警告道:“ChatGPT最近发生的2.5小时全球中断,为我们所有依赖AI工具来支持业务的人敲响了警钟。

    未来科技 2024年6月5日
  • ChatGPT、Perplexity、Claude同时大崩溃,AI集体罢工让全网都慌了

    接着OpenAI也在官网更新了恢复服务公告,表示“我们经历了一次重大故障,影响了所有ChatGPT用户的所有计划。Generator调查显示,在ChatGPT首次故障后的四小时内,谷歌AI聊天机器人Gemini搜索量激增60%,达到327058次。

    而且研究团队表示,“Gemini”搜索量的增长与“ChatGPT故障”关键词的搜索趋势高度相关,显示出用户把Gemini视为ChatGPT的直接替代选项。

    未来科技 2024年6月5日
  • 深度对话苹果iPad团队:玻璃的传承与演变

    iPad最为原始的外观专利

    没错,这就是iPad最初被设想的样子:全面屏,圆角矩形,纤薄,就像一片掌心里的玻璃。

    2010年发布的初代iPad

    好在乔布斯的遗志,并未被iPad团队遗忘。

    初代iPad宣传片画面

    乔布斯赞同这一想法,于是快速将资源投入平板电脑项目,意欲打造一款与众不同的「上网本」,这就是iPad早年的产品定义。

    iPad进化的底色

    苹果发布会留下过很多「名场面」,初代iPad发布会的末尾就是一例。

    未来科技 2024年6月5日
  • 底层逻辑未通,影视业的AI革命正在褪色…

    GPT、Sora均为革命性产品,引发了舆论风暴,但它在上个月发布的“多模态语音对谈”Sky语音,却由于声音太像电影明星斯嘉丽·约翰逊,被正主强烈警告,被迫下架。

    华尔街日报也在唱衰,认为“AI工具创新步伐正在放缓,实用性有限,运行成本过高”:

    首先,互联网上已经没有更多额外的数据供人工智能模型收集、训练。

    03、

    如果说训练“数字人”、使用AI配音本质上瞄向的仍是影视行业固有的发展方向,那么还有另外一群人试图从根本上颠覆影视行业的生产逻辑和产品形态。

    但分歧点正在于此,电影公司希望通过使用AI技术来降低成本,但又不希望自己的内容被AI公司所窃取。

    未来科技 2024年6月5日
  • KAN会引起大模型的范式转变吗?

    “先变后加”代替“先加后变”的设计,使得KAN的每一个连接都相当于一个“小型网络”, 能实现更强的表达能力。

    KAN的主要贡献在于,在当前深度学习的背景下重新审视K氏表示定理,将上述创新网络泛化到任意宽度和深度,并以科学发现为目标进行了一系列实验,展示了其作为“AI+科学”基础模型的潜在作用。

    KAN与MLP的对照表:

    KAN使神经元之间的非线性转变更加细粒度和多样化。

    未来科技 2024年6月5日
  • 这个国家,也开始发芯片补贴了

    //mp.weixin.qq.com/s/tIHSNsqF6HRVe2mabgfp6Q
    [4]中国安防协会:欧盟批准430亿欧元芯片补贴计划:2030年产量占全球份额翻番.2023.4.19.https。//mp.weixin.qq.com/s/VnEjzKhmZbuBUFclzGFloA
    [6]潮电穿戴:印度半导体投资大跃进,一锤砸下1090亿,政府补贴一半.2024.3.5https。

    未来科技 2024年6月5日
  • 大模型的电力经济学:中国AI需要多少电力?

    这些报告研究对象(数字中心、智能数据中心、加密货币等)、研究市场(全球、中国与美国等)、研究周期(多数截至2030年)各不相同,但基本逻辑大同小异:先根据芯片等硬件的算力与功率,计算出数据中心的用电量,再根据算力增长的预期、芯片能效提升的预期,以及数据中心能效(PUE)提升的预期,来推测未来一段时间内智能数据中心的用电量增长情况。

    未来科技 2024年6月5日
  • 你正和20万人一起接受AI面试

    原本客户还担心候选人能否接受AI面试这件事,但在2020年以后,候选人进行AI面试的过程已经是完全自动化的,包括面试过程中AI面试官回答候选人的问题,AI面试官对候选人提问以及基于候选人的回答对候选人进行至多三个轮次的深度追问。

    以近屿智能与客户合作的校验周期至少3年来看,方小雷认为AI应用不太可能一下子爆发,包括近屿智能在内的中国AI应用企业或许要迎来一个把SaaS做起来的好机会。

    未来科技 2024年6月4日