清华发布InfLLM:无需额外训练,1024K超长上下文100%召回

InfLLM由清华大学等机构提出,不需额外训练,通过外部记忆模块扩展大模型上下文长度,实现超长文本理解。创新地将历史上下文分为语义块,以减少噪声干扰和查询复杂度,提高长文本处理效率。在1024K超长文本上实现了100%召回,证明了其在处理超长上下文信息中的高效性和准确性。(新智元)

搜索