智源:1bit自然语言理解预训练模型BiPFT

智源团队提出了首个用于自然语言理解任务的1bit轻量化预训练模型BiPFT。与标准的FP32相比,使用1bit weight和1bit activation,在推理阶段节省了56倍的操作数量和28倍的内存。该工作已被AAAI 2024收录。

搜索