RLChina 强化学习社区

RLChina 强化学习社区

  • 发动态
  • 发帖子
登录/注册
首页
话题
  • 发动态
  • 发帖子
消息
登录/注册
最新
推荐
  • 最新
  • 推荐
  • 关注
  • 论文研讨
  • 课程学习
  • 学科竞赛
  • 新闻动态
  • 学术活动
  • 经验分享
  • 产业应用
  • 实用工具
  • 招生招聘
  • 水区
  • 水区
  • 反馈
热门标签
离线强化学习 多智能体强化学习
  • X
    X xlq 这家伙很懒,什么都没留下
    发布于2024-10-21 19:55:11

    有关PPO里面的重要性采样权重的疑问?

    为什么我看网上大多数代码再计算重要性采样权重的时候用的是(新策略-旧策略)的 e 指数来计算的,但是书上和资料上不都是直接相除的吗?但是我改成相除发现效果又很差,有没有大佬知道为什么要取指数?
    赞
    评论 4
    浏览 451
    课程学习
  • daydayup
    daydayup daydayup 一份伏特加,加一点青柠,姜汁,啤酒,最重要的是,还有一点爱
    发布于2021-10-01 09:43:53

    Unity ML-agents | | 强化学习 | | 交流 | | 求助

    最近在使用 ML-agents,在阅读他的详细设置和算法上遇到了难题,请问有没有小伙伴或者大佬可以一块交流学习啊,或者能给我指一个改写 PPO 的途径,蟹蟹! 问题更新:(主要指 ML-agents 当中 PPO 算法具体输入、具体数据处理、输出都分别在整...
    赞 7
    评论 13
    浏览 2361
    经验分享
签到
0
立即签到
合作伙伴 查看更多>>
  • 及第

    中科院自动化所多智能体开源开放平台

  • 动手学强化学习

    上海交大强化学习课程材料

公告

首次进入社区的小伙伴,欢迎了解以下事项,参与相关活动:

一、RLChina 组织形式:http://rlchina.org/topic/211

二、RLChina 2024 大会(可下载课件):http://rlchina.org/rlchina_2024

三、RLChina 2023 大会(可下载课件):http://rlchina.org/rlchina_2023

四、RLChina 2022 强化学习暑期课:http://rlchina.org/topic/491

五、RLChina 2021 强化学习暑期课:http://rlchina.org/topic/9?utm_source=pocket_saves

六、RLChina 智能体挑战赛:http://rlchina.org/topic/928

七、RLChina 前沿讲习班:http://rlchina.org/topic/215

八、RLChina 论文研讨会:http://rlchina.org/topic/219

积分排行
  • Carlos
    Carlos

    2 帖子 • 4 评论

    957
  • Frei0d
    Frei0d

    1 帖子 • 9 评论

    894
  • R
    Rlxia

    0 帖子 • 0 评论

    563
  • RLChina
    RLChina

    124 帖子 • 77 评论

    454
  • POLIXIR
    POLIXIR

    44 帖子 • 5 评论

    351
  • Rewrite
    Rewrite

    0 帖子 • 4 评论

    215
  • vinbo
    vinbo

    9 帖子 • 84 评论

    167
  • 支太行
    支太行

    17 帖子 • 34 评论

    133
  • 张海峰
    张海峰

    4 帖子 • 43 评论

    132
  • AINova
    AINova

    20 帖子 • 43 评论

    99
关于 标签 友链