一、技术栈选型与架构设计1.1 组件功能解析Ollama作为轻量级模型运行框架,支持DeepSeek系列模型的本地化部署,通过GPU加速实现低延迟推理。DeepSeek R1模型提供7B/13B/33B参数版本,满足不同硬件配置需求。LangCh……