Assistance
Questions fréquentes et informations de contact.
Quels formats de documents sont pris en charge ?
LocalRAG! prend en charge les fichiers PDF, EPUB, DOCX, XLSX, PPTX, TXT, MD (Markdown), CSV, RTF et HTML. Les PDF scannés et les PDF protégés contre la copie sont également pris en charge grâce à l’OCR.
Quelles sont les formules disponibles ?
LocalRAG! propose trois formules : Free (5 questions/jour avec Haiku), Standard (30 questions/jour avec Sonnet + Haiku, $4.99/mois) et Pro (questions illimitées avec tous les modèles dont Opus, $9.99/mois). Vous pouvez aussi utiliser votre propre clé API (BYOK) pour un accès gratuit et illimité.
Comment fonctionne l’essai gratuit ?
Les formules Standard et Pro incluent une période d’essai gratuit d’1 semaine. À la fin de la période d’essai, votre abonnement démarre automatiquement sauf si vous annulez avant. La formule Free est toujours disponible sans période d’essai.
Comment annuler mon abonnement ?
iOS : Réglages > Apple ID > Abonnements > LocalRAG! > Annuler. Android : Google Play > Profil > Paiements et abonnements > Abonnements > LocalRAG! > Annuler. Annulez au moins 24 heures avant la fin de la période de facturation en cours.
Mes données sont-elles protégées ?
Oui. L’ensemble du traitement des documents (extraction de texte, découpage et indexation) s’effectue entièrement sur votre appareil. Seuls votre question et les extraits de texte pertinents sont envoyés à l’IA pour générer les réponses. Vos documents originaux ne quittent jamais votre appareil.
Puis-je utiliser ma propre clé API ?
Oui. Vous pouvez saisir votre propre clé API Anthropic dans les réglages pour utiliser Claude directement. Cela vous donne accès à tous les modèles disponibles et vous payez directement Anthropic pour l’utilisation. Votre clé API est stockée de manière sécurisée dans le trousseau de votre appareil.
Quels modèles d’IA sont disponibles ?
Formule Free : Claude Haiku 4.5. Formule Standard : Claude Sonnet 4.5 et Haiku 4.5. Formule Pro ou BYOK : tous les modèles, y compris Claude Opus 4. Chaque modèle offre un compromis différent entre vitesse, précision et coût.
L’application ne répond pas correctement. Que faire ?
Essayez de réimporter le document pour reconstruire l’index de recherche. Assurez-vous que votre question est précise et en rapport avec le contenu du document. Pour les PDF scannés, vérifiez que la qualité de l’OCR est suffisante. Vous pouvez également essayer de passer à un modèle plus performant.
Quelles langues sont prises en charge ?
L’interface de l’application est disponible en français, anglais, japonais, allemand, espagnol, portugais, coréen et chinois. Vous pouvez discuter avec des documents dans n’importe quelle langue — l’IA et le moteur de recherche fonctionnent dans toutes les langues.
IA embarquée (LLM local)
Quelles sont les limitations de l’IA embarquée ?
L’IA embarquée (LLM local) fonctionne entièrement sur votre appareil pour une confidentialité maximale. En raison de la taille compacte du modèle, il existe certaines limites par rapport à l’API Claude :
- Qualité des réponses : Les réponses peuvent être moins détaillées ou précises que l’API Claude, notamment pour les questions complexes.
- Recherche multilingue : La précision diminue lorsque vous posez des questions dans une langue différente de celle du document (ex. : questions en français sur un document anglais). Il est recommandé de poser des questions dans la même langue que le document.
- Temps de réponse : Dépend des performances de l’appareil. Haut de gamme : 1–3 minutes, milieu de gamme : 2–5 minutes.
- Téléchargement du modèle : Téléchargement unique d’environ 3 Go (Wi-Fi recommandé).
- Utilisation mémoire : Utilise 1–2 Go de RAM pendant l’inférence. Les performances peuvent diminuer en utilisation simultanée avec d’autres apps.
- Longueur de conversation : La fenêtre de contexte est limitée, la qualité des réponses peut diminuer dans les longues conversations. Effacer le chat et recommencer peut aider.
- Android : Actuellement en version bêta. Le comportement peut varier selon l’appareil.
Comment améliorer les réponses de l’IA embarquée ?
Conseils pour améliorer la qualité des réponses :
- Posez des questions dans la même langue que le document pour les résultats les plus précis.
- Soyez spécifique — les questions précises fonctionnent mieux que les questions générales.
- Effacez la conversation et recommencez si les réponses deviennent imprécises après plusieurs tours.
- Sur Android, les appareils haut de gamme (ex. : Snapdragon 8 Gen 3) peuvent utiliser le modèle 4B pour une meilleure qualité. Les appareils milieu de gamme devraient utiliser le modèle 2B pour des réponses plus rapides.
- Pour les questions complexes ou critiques, envisagez de passer à l’API Claude pour une meilleure précision.
Pourquoi l’IA embarquée est-elle plus lente que l’API Claude ?
L’API Claude fonctionne sur des serveurs cloud puissants, tandis que l’IA embarquée fonctionne entièrement sur le CPU de votre appareil. Le compromis est une confidentialité totale : aucune donnée n’est envoyée à un serveur. Le temps de réponse dépend de la puissance de traitement de votre appareil et de la taille du modèle (2B ou 4B paramètres).
Besoin d’aide ?
Nous sommes à votre disposition pour toute question ou tout problème.
[email protected]