
Con LocalRAG!, haz preguntas directamente a los PDF, documentos Word y EPUB que solo están en tu dispositivo. Funciona sin conexión con IA en el dispositivo, o en línea con Claude.
Disponible en iPhone, iPad y Android
Prueba gratuita de 1 semana incluida

Ordena las colecciones por Nombre (A→Z / Z→A) o Fecha de creación (más antiguas / más recientes). Arrastra las colecciones al orden que prefieras. El modo de ordenación se recuerda entre sesiones.
Las respuestas de la IA ahora muestran referencias [1][2] a las fuentes — toca para ir a la página exacta con resaltado amarillo. El modelo de embedding en el dispositivo (E5 Multilingual) permite la búsqueda semántica entre idiomas. Actualización a búsqueda BM25 para una recuperación más precisa. Además: editor OCR, extracción de tablas PDF con reconocimiento de diseño y transparencia del pipeline de búsqueda.
El LLM local integrado (Qwen 3.5 4B) se ejecuta completamente en tu dispositivo. Sin internet, sin llamadas API, sin envío de datos. Disponible en iOS y Android (beta). Descarga el modelo una vez (~3 GB) y chatea con tus documentos completamente sin conexión.
Importa tus documentos, haz preguntas en lenguaje natural y obtén respuestas impulsadas por IA — todo procesado directamente en tu dispositivo.

"¿Cuáles son las cláusulas de rescisión?" "Resume el capítulo 3." Solo escribe una pregunta en lenguaje natural y LocalRAG! buscará en todos tus documentos los pasajes más relevantes. No necesitas abrir archivos uno por uno — la IA lo lee todo por ti.

PDF, EPUB, Word, Excel, PowerPoint, imágenes, documentos escaneados — 15 formatos de archivo en una sola colección, todos consultables a la vez. Las fotos de pizarras y los PDF escaneados se procesan automáticamente con OCR para extraer texto y permitir preguntas y respuestas con IA.

Cada respuesta de IA incluye citas a nivel de página como "Service-Agreement.pdf (p.12)" — para que siempre sepas exactamente de qué documento y página proviene la respuesta. Nunca confíes ciegamente en la IA — verifica con la fuente original.

El LLM local integrado (Qwen3 4B) funciona completamente en tu dispositivo. Sin conexión a internet, sin envío de datos a ningún servidor. Consulta con confianza a la IA sobre documentos confidenciales y archivos personales. ¿Necesitas mayor precisión? Cambia a la API de Claude en cualquier momento.
Obtén los puntos clave de informes largos, manuales y artículos de investigación en segundos.
Encuentra cláusulas de rescisión, no competencia, condiciones de pago y riesgos al instante.
Extrae hallazgos, comprende la metodología y chatea con artículos académicos.
Una de las pocas herramientas de IA con soporte nativo de EPUB. Resume capítulos y haz preguntas.
Importa fotos de pizarras, recibos o documentos. El OCR en el dispositivo extrae texto para preguntas y respuestas con IA.
PDF, Word, EPUB — sin importar el formato, solo agrégalos a una colección. La IA busca en todos tus documentos a la vez.

PDFs de reuniones, actas en Word, notas de texto — el formato no importa. Agrégalos a una colección y pregunta "¿Qué se decidió sobre ese tema?" No más abrir archivos uno por uno.

Importa tus PDFs y EPUBs sin leer juntos. Sin leer una sola página, pregunta "¿Cuál es el punto clave de este libro?" o "Explica el método del capítulo 3." La IA lee cada página por ti.

PDFs de ISO, archivos de texto RFC, políticas internas en Word — cárgalos todos en una colección. Pregunta "¿Cuáles son los requisitos de autenticación?" y LocalRAG encuentra las secciones relevantes en cada documento.

Pólizas de seguro, manuales de usuario, contratos, recetas. Agrega lo que sea a una colección. Quizás olvides qué hay dentro, pero LocalRAG nunca lo olvida. Cuando lo necesites, solo pregunta — te dice qué documento tiene la respuesta.
Descubre cómo LocalRAG! convierte tus documentos en conversaciones.
Dos formas de chatear con tus documentos. Elige la que se adapte a tus necesidades.
| IA en dispositivo | Claude API | |
|---|---|---|
| Internet requerido | No — completamente sin conexión | Sí |
| Datos enviados al servidor | Ninguno — cero nube | Solo pregunta + extractos relevantes |
| Calidad de respuesta | Buena (modelo 4B) | Excelente (Opus / Sonnet / Haiku) |
| Velocidad de respuesta | ~10 seg a unos min | ~3 seg |
| Descarga del modelo | ~3 GB (una sola vez) | No requerido |
| Plataforma | iOS & Android (beta) | iOS y Android |
En ambos modos, el procesamiento de documentos (extracción de texto, indexación, búsqueda) se realiza completamente en tu dispositivo. La IA en dispositivo va más allá generando respuestas localmente — ningún dato sale nunca de tu dispositivo.
"Importé 12 PDFs de libros de texto y pregunté '¿Cuál es la diferencia entre TCP y UDP?' Obtuve una respuesta clara con números de página — ya no necesito hojear 3.000 páginas."
"Cargué 30 artículos en una colección y pregunté '¿Qué estudios usan modelos basados en Transformer para imágenes médicas?' Encontré 8 artículos relevantes en segundos."
"Revisé un NDA de 120 páginas preguntando '¿Hay cláusulas de no competencia?' Encontró dos — en las páginas 34 y 78 — que habría pasado por alto en una revisión manual."
"Los SOPs, documentos de cumplimiento y actas de reunión de nuestro equipo están todos en una colección. Los nuevos empleados solo preguntan '¿Cuál es el proceso de aprobación para contratos con proveedores?' y obtienen la respuesta al instante."
IA documental potente que respeta tu privacidad.
PDF, EPUB, DOCX, XLSX, PPTX, TXT, MD, CSV, RTF, HTML, JPG, PNG, HEIC, WebP — además de PDFs escaneados y protegidos contra copia.
Haz preguntas sobre tus documentos en lenguaje cotidiano. Recibe respuestas con citas de la fuente.
Las respuestas de la IA muestran referencias [1][2] que puedes tocar. Salta directamente a la página citada con resaltado amarillo en el pasaje exacto.
Todo el procesamiento de documentos ocurre en tu dispositivo. Tus archivos nunca salen de tu dispositivo.
Búsqueda Okapi BM25 con modelo de embedding en el dispositivo (E5 Multilingual) para búsqueda semántica entre idiomas. Pregunta en japonés y encuentra respuestas en documentos en inglés.
Importa fotos de pizarras, recibos o documentos escaneados. El OCR en el dispositivo extrae texto para preguntas y respuestas instantáneas, y puedes editar el texto extraído antes de indexarlo.
Organiza documentos en carpetas anidadas de hasta 3 niveles. El alcance padre incluye todos los documentos hijos para Q&A enfocado.
El LLM local integrado funciona completamente en tu dispositivo — sin internet, sin llamadas API, sin envío de datos. IA documental con cero nube.
Elige entre la IA en dispositivo para uso sin conexión, o Claude Sonnet 4.5, Haiku 4.5 u Opus 4 en línea. Ajusta velocidad, precisión y coste a tu medida.
Tres sencillos pasos para chatear con tus documentos.
Añade documentos desde el gestor de archivos u otras apps. 15 formatos compatibles.
LocalRAG! extrae el texto y construye un índice de búsqueda — completamente en tu dispositivo.
Pregunta lo que quieras sobre tus documentos. Obtén respuestas con IA y citas de la fuente.
Todos los tipos de documento con los que trabajas, en una sola app.
El procesamiento de documentos — extracción de texto, fragmentación e indexación — se realiza completamente en tu dispositivo. Tus archivos nunca se suben a ningún lugar. Con el modo IA sin conexión (LLM local), incluso las respuestas se generan en el dispositivo — ningún dato sale de tu dispositivo. Cuando usas los modelos de Claude en línea, solo tu pregunta y los 10 fragmentos de texto más relevantes (de unos 500 caracteres cada uno) se envían a la API de Claude. El documento completo nunca se transmite.
Los servicios en la nube requieren subir todo el documento a sus servidores. LocalRAG! mantiene tus archivos en tu dispositivo y solo envía pequeños extractos relevantes cuando haces una pregunta. Esto lo hace ideal para documentos sensibles como contratos, historiales médicos o investigaciones confidenciales. Además, con la IA integrada en el dispositivo (iOS y Android (beta)), puedes funcionar completamente sin conexión — ningún dato sale de tu dispositivo.
No. La política de uso de la API de Anthropic establece explícitamente que las entradas y salidas de la API no se utilizan para el entrenamiento de modelos. Esto es diferente del producto gratuito Claude para consumidores. Los extractos de tus documentos se procesan y se descartan.
Sí. El plan gratuito incluye 5 preguntas al día con Claude Haiku, además del modo IA en dispositivo que funciona completamente sin conexión y sin límites. También puedes usar tu propia clave API de Anthropic (BYOK) para acceso ilimitado a todos los modelos sin costo de suscripción — solo pagas el uso de la API directamente a Anthropic.
LocalRAG! incluye un modelo de lenguaje integrado que funciona completamente en tu dispositivo. Después de descargar el modelo (~3 GB), puedes hacer preguntas sobre tus documentos sin conexión a internet. Las respuestas se generan en el dispositivo — ningún dato se envía a servidores. Disponible en todos los planes. Disponible en iOS y Android (beta).
LocalRAG! admite 15 formatos: PDF, EPUB, DOCX, XLSX, PPTX, TXT, Markdown, CSV, RTF, HTML, JPG, PNG, HEIC y WebP. Los PDF escaneados y protegidos contra copia también se admiten mediante OCR en el dispositivo. Las imágenes se procesan mediante OCR en el dispositivo para extraer texto.
Empieza gratis con 5 preguntas/día, o suscríbete para más.
Planes Free, Standard ($4.99/mes) y Pro ($9.99/mes) disponibles. Cancela en cualquier momento.
Términos de Uso · Política de Privacidad