Triez les collections par Nom (A→Z / Z→A) ou Date de création (plus ancienne / plus récente). Faites glisser les collections dans l'ordre souhaité. Le mode de tri est mémorisé entre les sessions.
Les réponses de l'IA affichent désormais des références [1][2] aux sources — appuyez pour accéder à la page exacte avec un surlignage jaune. Le modèle d'embedding embarqué (E5 Multilingual) permet la recherche sémantique multilingue. Mise à niveau vers la recherche BM25 pour une récupération plus précise. En plus : éditeur OCR, extraction de tableaux PDF avec reconnaissance de mise en page, et transparence du pipeline de recherche.
Le LLM local intégré (Qwen 3.5 4B) fonctionne entièrement sur votre appareil. Pas d'internet, pas d'appels API, aucune donnée envoyée. Disponible sur iOS et Android (bêta). Téléchargez le modèle une fois (~3 Go) et discutez avec vos documents entièrement hors ligne.
Importez vos documents, posez des questions en langage naturel et obtenez des réponses générées par l'IA — le tout traité directement sur votre appareil.

"Quelles sont les clauses de résiliation ?" "Résume le chapitre 3." Saisissez simplement une question en langage naturel et LocalRAG! recherche dans tous vos documents les passages les plus pertinents. Plus besoin d'ouvrir les fichiers un par un — l'IA lit tout pour vous.

PDF, EPUB, Word, Excel, PowerPoint, images, documents scannés — 15 formats de fichiers dans une seule collection, tous consultables en une fois. Les photos de tableaux blancs et les PDF scannés sont automatiquement traités par OCR pour extraire le texte et permettre les questions-réponses par IA.

Chaque réponse IA inclut des citations au niveau de la page comme "Service-Agreement.pdf (p.12)" — vous savez toujours exactement de quel document et de quelle page provient la réponse. Ne faites jamais aveuglément confiance à l'IA — vérifiez avec la source originale.

Le LLM local intégré (Qwen3 4B) fonctionne entièrement sur votre appareil. Aucune connexion internet nécessaire, aucune donnée envoyée à un serveur. Interrogez l'IA en toute sérénité sur vos documents confidentiels et fichiers personnels. Besoin de plus de précision ? Passez à l'API Claude à tout moment.
Obtenez les points clés de longs rapports, manuels et articles de recherche en quelques secondes.
Trouvez les clauses de résiliation, les clauses de non-concurrence, les conditions de paiement et les risques instantanément.
Extraire les résultats, comprendre la méthodologie et dialoguer avec les articles académiques.
L’un des rares outils IA avec prise en charge native EPUB. Résumez les chapitres et posez des questions.
Importez des photos de tableaux blancs, reçus ou documents. L'OCR sur l'appareil extrait le texte pour des Q&R avec l'IA.
PDF, Word, EPUB — peu importe le format, ajoutez-les à une collection. L'IA recherche dans tous vos documents en une fois.

PDF de réunions, comptes-rendus Word, mémos texte — le format n'a pas d'importance. Ajoutez-les à une collection et demandez « Qu'a-t-on décidé sur ce sujet ? » Plus besoin d'ouvrir les fichiers un par un.

Importez vos PDF et EPUB non lus ensemble. Sans lire une seule page, demandez « Quel est le point essentiel de ce livre ? » ou « Explique la méthode du chapitre 3. » L'IA lit chaque page à votre place.

PDF ISO, fichiers texte RFC, politiques internes Word — chargez tout dans une seule collection. Demandez « Quelles sont les exigences d'authentification ? » et LocalRAG trouve les sections pertinentes dans chaque document.

Polices d'assurance, manuels d'utilisation, contrats, recettes. Ajoutez n'importe quoi à une collection. Vous oublierez peut-être ce qu'elle contient, mais LocalRAG n'oublie jamais. Quand vous en avez besoin, demandez — il vous dit quel document contient la réponse.
Découvrez comment LocalRAG! transforme vos documents en conversations.
Deux façons de dialoguer avec vos documents. Choisissez selon vos besoins.
| IA embarquée | Claude API | |
|---|---|---|
| Internet requis | Non — entièrement hors ligne | Oui |
| Données envoyées au serveur | Aucune — zéro cloud | Question + extraits pertinents uniquement |
| Qualité des réponses | Bonne (modèle 4B) | Excellente (Opus / Sonnet / Haiku) |
| Vitesse de réponse | ~10 sec à quelques min | ~3 sec |
| Téléchargement du modèle | ~3 Go (une seule fois) | Non requis |
| Plateforme | iOS & Android (bêta) | iOS et Android |
Dans les deux modes, le traitement des documents (extraction de texte, indexation, recherche) s'effectue entièrement sur votre appareil. L'IA embarquée va plus loin en générant les réponses localement — aucune donnée ne quitte jamais votre appareil.
"J'ai importé 12 manuels en PDF et demandé 'Explique la différence entre TCP et UDP.' J'ai obtenu une réponse claire avec les numéros de page — fini de feuilleter 3 000 pages."
"J'ai chargé 30 articles dans une collection et demandé 'Quelles études utilisent des modèles basés sur Transformer pour l'imagerie médicale ?' J'ai trouvé 8 articles pertinents en quelques secondes."
"J'ai examiné un NDA de 120 pages en demandant 'Y a-t-il des clauses de non-concurrence ?' Il en a trouvé deux — aux pages 34 et 78 — que j'aurais manquées lors d'une relecture manuelle."
"Les procédures, documents de conformité et comptes-rendus de réunion de notre équipe sont tous dans une collection. Les nouveaux employés demandent simplement 'Quel est le processus d'approbation des contrats fournisseurs ?' et obtiennent la réponse instantanément."
Une IA documentaire performante qui respecte votre vie privée.
PDF, EPUB, DOCX, XLSX, PPTX, TXT, MD, CSV, RTF, HTML, JPG, PNG, HEIC, WebP — plus les PDF scannés et protégés contre la copie.
Posez des questions sur vos documents en langage courant. Obtenez des réponses avec citations des sources.
Les réponses de l'IA affichent des références [1][2] sur lesquelles vous pouvez appuyer. Accédez directement à la page citée avec un surlignage jaune sur le passage exact.
Tout le traitement des documents se fait sur votre appareil. Vos fichiers ne quittent jamais votre appareil.
Recherche Okapi BM25 avec modèle d'embedding sur l'appareil (E5 Multilingual) pour une recherche sémantique multilingue. Posez une question en japonais, trouvez des réponses dans des documents en anglais.
Importez des photos de tableaux blancs, reçus ou documents scannés. L'OCR sur l'appareil extrait le texte pour des Q&R instantanées, et vous pouvez modifier le texte extrait avant l'indexation.
Organisez vos documents dans des dossiers imbriqués jusqu'à 3 niveaux. La portée parente inclut tous les documents enfants pour des Q&R ciblées.
Le LLM local intégré fonctionne entièrement sur votre appareil — pas d’internet, pas d’appels API, aucune donnée envoyée. Une IA documentaire zéro cloud.
Choisissez entre l’IA embarquée, Claude Sonnet 4.5, Haiku 4.5 ou Opus 4. Ajustez vitesse, précision et coût selon vos besoins.
Trois étapes simples pour discuter avec vos documents.
Ajoutez des documents depuis le gestionnaire de fichiers ou d’autres apps. 15 formats pris en charge.
LocalRAG! extrait le texte et construit un index de recherche — entièrement sur votre appareil.
Posez n’importe quelle question sur vos documents. Obtenez des réponses par IA avec citations.
Tous les types de documents que vous utilisez, dans une seule app.
Le traitement des documents — extraction de texte, découpage et indexation — se fait entièrement sur votre appareil. Vos fichiers ne sont jamais téléchargés. En mode IA hors ligne (LLM local), tout reste sur votre appareil — aucune donnée n’est envoyée. En mode en ligne, seuls votre question et les 10 extraits de texte les plus pertinents (environ 500 caractères chacun) sont envoyés à l’API Claude. Le document complet n’est jamais transmis.
Les services cloud exigent de télécharger l’intégralité de votre document sur leurs serveurs. LocalRAG! conserve vos fichiers sur votre appareil et n’envoie que de petits extraits pertinents lorsque vous posez une question. Il convient donc aux documents sensibles comme les contrats, dossiers médicaux ou recherches confidentielles. De plus, avec l’IA embarquée (iOS et Android (bêta)), vous pouvez fonctionner entièrement hors ligne — aucune donnée ne quitte votre appareil.
Non. La politique d’utilisation de l’API d’Anthropic stipule explicitement que les entrées et sorties de l’API ne sont pas utilisées pour l’entraînement des modèles. Cela diffère du produit gratuit Claude grand public. Vos extraits de documents sont traités puis supprimés.
Oui. Le plan gratuit comprend 5 questions par jour avec Claude Haiku, ainsi que l’IA embarquée (LLM local) qui fonctionne hors ligne sans aucune limite. Vous pouvez également utiliser votre propre clé API Anthropic (BYOK) pour un accès illimité à tous les modèles sans frais d’abonnement — vous ne payez que l’utilisation de l’API directement à Anthropic.
LocalRAG! intègre un modèle de langage qui fonctionne entièrement sur votre appareil. Après le téléchargement du modèle (~3 Go), vous pouvez interroger vos documents sans connexion internet. Les réponses sont générées sur l’appareil — aucune donnée n’est envoyée. Disponible sur tous les plans. Disponible sur iOS et Android (bêta).
LocalRAG! prend en charge 15 formats : PDF, EPUB, DOCX, XLSX, PPTX, TXT, Markdown, CSV, RTF, HTML, JPG, PNG, HEIC et WebP. Les PDF numérisés et protégés contre la copie sont également pris en charge grâce à l'OCR intégré à l'appareil. Les images sont traitées par OCR sur l'appareil pour en extraire le texte.
Commencez gratuitement avec 5 questions/jour, ou abonnez-vous pour davantage.
Formules Free, Standard ($4.99/mois) et Pro ($9.99/mois) disponibles. Annulation à tout moment.
Conditions d’utilisation · Politique de confidentialité