向量库与RAG·3 天前本地 LLM 做个人知识库:RAG 落地消费硬件的真实痛点Reddit 用户发帖询问是否有人真正把本地 LLM 当作日常个人知识库使用(非编码、非实验),引发社区讨论。核心痛点集中在三方面:消费级硬件上 RAG 的检索精度不可靠,用户需要反复核对结果;LlamaIndex、Ollama 等工具链变化太快,两年前的教程已失效;个人文档积累后上下文长度管理困难。社区反馈显示,目前尚无开箱即用的方案,维护成本接近一份兼职工作。›1 条相关源