引言:大语言模型的记忆瓶颈与MemGPT的突破 在大语言模型(LLM)的快速发展中,一个核心挑战始终存在:如何让模型在长对话或复杂任务中保持上下文一致性。传统LLM受限于固定长度的上下文窗口(如2048 tokens),一……