支持
常见问题与联系方式。
支持哪些文档格式?
LocalRAG! 支持 PDF、EPUB、DOCX、XLSX、PPTX、TXT、MD(Markdown)、CSV、RTF 和 HTML 文件。扫描版 PDF 和受保护的 PDF 也可通过 OCR 识别。
有哪些可用方案?
LocalRAG! 提供三种方案:Free(每天 5 次/Haiku)、Standard(每天 30 次/Sonnet + Haiku,$4.99/月)和 Pro(无限次/所有模型含 Opus,$9.99/月)。您也可以使用自己的 API 密钥(BYOK),免费无限制使用。
免费试用如何运作?
Standard 和 Pro 方案含 1 周免费试用。试用结束后,除非您在试用期到期前取消,否则将自动开始订阅。Free 方案始终免费可用,无需试用。
如何取消订阅?
iOS:设置 > Apple ID > 订阅 > LocalRAG! > 取消。Android:Google Play > 个人资料 > 付款和订阅 > 订阅 > LocalRAG! > 取消。请在当前计费周期结束前至少 24 小时取消。
我的数据是否安全?
是的。所有文档处理(文本提取、分块和索引构建)均在设备本地完成。仅您的问题和相关文本片段会发送至 AI 以生成回答。原始文档绝不会离开您的设备。
可以使用自己的 API 密钥吗?
可以。在设置中输入您的 Anthropic API 密钥即可直接使用 Claude。您将获得所有可用模型的访问权限,使用费用直接支付给 Anthropic。API 密钥安全存储在设备的 Keychain 中。
可以使用哪些 AI 模型?
Free 方案:Claude Haiku 4.5。Standard 方案:Claude Sonnet 4.5 和 Haiku 4.5。Pro 方案或 BYOK:所有模型,包括 Claude Opus 4。各模型在速度、精度和成本之间有不同侧重。
应用回答不准确怎么办?
请尝试重新导入文档以重建搜索索引。确保您的问题与文档内容相关且足够具体。对于扫描版 PDF,请确认 OCR 识别质量。您也可以尝试切换到更强的模型。
支持哪些语言?
应用界面支持中文、英语、日语、德语、西班牙语、法语、葡萄牙语和韩语。您可以使用任何语言与文档对话 — AI 和检索管线支持所有语言。
设备端AI(本地LLM)
设备端AI有哪些限制?
设备端AI(本地LLM)完全在您的设备上运行,最大程度保护隐私。由于模型体积较小,与Claude API相比存在以下限制:
- 回答质量:复杂问题的回答可能不如Claude API详细或准确。
- 跨语言搜索:当提问语言与文档语言不同时(例如用中文提问英文文档),搜索精度会降低。建议使用与文档相同的语言提问。
- 响应速度:取决于设备性能。高端设备:1–3分钟,中端设备:2–5分钟。
- 模型下载:首次需要下载约3GB(建议使用Wi-Fi)。
- 内存使用:推理期间使用1–2GB RAM。与其他应用同时使用可能导致延迟。
- 对话长度:上下文窗口有限,较长对话中回答质量可能下降。清除聊天重新开始可以改善。
- Android:目前为测试版,不同设备的表现可能有所不同。
如何提高设备端AI的回答质量?
提高回答质量的建议:
- 使用与文档相同的语言提问,可获得最准确的结果。
- 尽量具体地提问,具体问题比宽泛问题效果更好。
- 多轮对话后回答不准确时,清除聊天重新开始。
- 在Android上,高端设备(如骁龙8 Gen 3)可使用4B模型获得更高质量回答,中端设备建议使用2B模型。
- 对于复杂或重要的问题,建议切换到Claude API以获得更高准确性。
为什么设备端AI比Claude API慢?
Claude API在高性能云服务器上运行,而设备端AI完全在您设备的CPU上运行。这种权衡带来了完全的隐私保护:没有任何数据发送到服务器。响应时间取决于设备的处理能力和模型大小(2B或4B参数)。