RLChina
RLChina 是由国内外强化学习学者联合发起的民间学术组织,主要活动包括举办强化学习线上公开课、强化学习线上研讨会等,旨在搭建强化学习学术界、产业界和广大爱好者之间的桥梁。
评论(6)
请
登录后发表观点
-
chatGPT 思想是用了强化学习,那么冯老师怎么看待 强化学习 和 生成对抗(GAN)的区别和联系?
-
汪老师,ChatGPT 出来之后,在工业界,可以看到很多新公司对大语言模型的上游 prompt 和下游各种具体任务做出了很快的适配和优化。在学术界,尤其是 NLP 领域的 researcher 目前也在做一些和大语言模型结合的研究,包括调整研究方向(有些已有的任务直接被大语言模型颠覆了)。
但是具体的您觉得在当下环境下,researcher 们应该如何调整原有研究方向以及和当下最热的大语言模型结合呢?比如是从理论开始,用传统的理论和当下的大语言模型结合;还是说从实际问题出发,使当下的大语言模型在具体领域有更好延伸。
-
老师好,请问一下,在大模型时代由于模型巨大,难以操作普通人/组难以操作,就算有一个不错的 idea,那么怎么去检测这种 idea 的成立呢?
- 老师好,请问如果用大规模数据训练模型使其建立对世界(规则)的理解时,可能某些关键的corner case在数据中出现的非常少,但同时对完成该任务又是非常重要的,要怎样使模型学习到对这种corner case的把握呢?
-
老师好,我想问,为什么 chatgpt 训练的语料没有用中文和一些语言,但是实际上在其他语言的表现也不错
-
老师好,想问一下能不能让 ChatGPT 成为个人的专属效率工具?在这个过程中要去怎么设计 prompt 指令来更好地调教 ChatGPT 呢?