国产团队推出Visual-RFT,将强化学习方法扩展到多模态

上海交大等团队推出Visual-RFT,将DeepSeek-R1的规则奖励强化学习成功应用于视觉语言模型;只需10-1000条数据,Visual-RFT通过思考过程和规则监督在检测、分类等任务上显著超越传统SFT方法;研究设计了基于IoU和分类正确率的奖励机制,验证了强化学习在多模态领域的有效性,已全面开源。

搜索