近日,清华大学自然语言处理(NLP)实验室联合上海AILab和清华大学电子系,以及OpenBMB社区,成功提出了一种新的强化学习方法——PRIME(Process Reinforcement through Implicit ...
在近期的人工智能研究中,清华大学的团队以仅仅一万块的投入,展示了他们在强化学习领域的革命性突破。他们的7B模型Eurus-2-7B-PRIME轻松超越了GPT-4o和Llama-3.1-70B,成为最新的数学能力先锋。这一成果不仅证明了强化学习的潜能,还引发了对传统模仿学习方法的质疑。
端侧小型语言模型新星——SmolLM2 1.7B击败了Qwen 2.5 1.5B和Llama 3.2 1B: Apache 2.0许可 训练于11万亿个令牌 在FineWeb-Edu、DCLM、The Stack以及新的数学和编码 ...
近日,清华大学 NLP 实验室联合上海 AI Lab,清华大学电子系及 OpenBMB 社区提出一种新的结合过程奖励的强化学习方法—— PRIME(Process Reinforcement through IMplicit REwards),采用 PRIME 方法,研究人员不依赖任何蒸馏数据和模仿学习,仅用 8 张 A100,花费一万块钱左右,不到 10天 时间,就能高效训练出一个数学能力超过 ...
Llama 2, released in partnership with Microsoft Azure, comes in three sizes 7B, 13B and 70B, the B standing for billions of parameters in the training data. The models can be downloaded for free ...