RLChina
RLChina 是由国内外强化学习学者联合发起的民间学术组织,主要活动包括举办强化学习线上公开课、强化学习线上研讨会等,旨在搭建强化学习学术界、产业界和广大爱好者之间的桥梁。
发布于

专题报告七:负责任的AI:智能体的道德指导

评论(8)
  • CY 回复
    感谢方老师的讲座!请问模型对道德的判断是否会受到训练数据分布或部分用户有意进行的大量反馈影响?
  • paris kang 回复

    请问您用文本对抗攻击扰动的思路设计 prompt,避开 LLM 检验道德水准,有哪几种方式可以尝试,您有测试过么

  • Levi 回复

    方老师你好,我是利物浦大学博一的学生,我的研究方向主要是 RL for robotics。请问可以找您请教或者合作吗?

  • XYZ 回复

    老师您认为 GPT-4 的出现,更智能的模型会不会出现规避已有伦理道德的方法?

  • Alex 回复

    请问老师觉得未来人工智能能否根据给定几条基本规则,推导出其他的道德规则,从而降低人类标注的成本呢?

  • ruan 回复

    方老师您好,您认为道德问题与 Safe RL 有什么相似之处与区别吗?

  • Chatbot
    Chatbot 回复

    老师您好,您提到在强化学习中可以通过 reward shaping 或者 policy shaping 在一定程度上限制智能体,然而这些 shaping 的操作还是人为设计的。但是在一些复杂场景中,道德的判定标准并不清晰,那么该如何处理呢?

  • 自动化所金宣法
    自动化所金宣法 回复

    欢迎大家留言提问~