一、技术栈选型与部署架构设计 1.1 技术组件选型依据 Ollama:轻量级模型运行框架,支持多种LLM模型(包括DeepSeek-R1)的本地化部署,内存占用优化至8GB即可运行7B参数模型 Docker:提供隔离的运行环境,确保模……