一、技术栈选型与优势分析 1.1 核心组件定位 Ollama作为轻量级模型运行框架,专为本地化LLM部署设计,支持GPU/CPU混合推理,内存占用较传统方案降低40%。deepseek-r1:7b是DeepSeek团队开源的70亿参数精简版模型,……