RLChina
RLChina 是由国内外强化学习学者联合发起的民间学术组织,主要活动包括举办强化学习线上公开课、强化学习线上研讨会等,旨在搭建强化学习学术界、产业界和广大爱好者之间的桥梁。
评论(8)
请
登录后发表观点
- 感谢方老师的讲座!请问模型对道德的判断是否会受到训练数据分布或部分用户有意进行的大量反馈影响?
-
请问您用文本对抗攻击扰动的思路设计 prompt,避开 LLM 检验道德水准,有哪几种方式可以尝试,您有测试过么
-
方老师你好,我是利物浦大学博一的学生,我的研究方向主要是 RL for robotics。请问可以找您请教或者合作吗?
-
老师您认为 GPT-4 的出现,更智能的模型会不会出现规避已有伦理道德的方法?
-
请问老师觉得未来人工智能能否根据给定几条基本规则,推导出其他的道德规则,从而降低人类标注的成本呢?
-
方老师您好,您认为道德问题与 Safe RL 有什么相似之处与区别吗?
-
老师您好,您提到在强化学习中可以通过 reward shaping 或者 policy shaping 在一定程度上限制智能体,然而这些 shaping 的操作还是人为设计的。但是在一些复杂场景中,道德的判定标准并不清晰,那么该如何处理呢?
-
欢迎大家留言提问~