サポート

よくある質問とお問い合わせ先。

対応しているドキュメント形式は?

PDF、EPUB、DOCX、XLSX、PPTX、TXT、MD(Markdown)、CSV、RTF、HTML に対応しています。スキャンPDFやコピー保護されたPDFも OCR により読み取れます。

利用可能なプランは?

3つのプランがあります: Free(1日5回/Haiku)、Standard(1日30回/Sonnet+Haiku、月額¥600)、Pro(無制限/全モデル、月額¥1,200)。自分のAPIキー(BYOK)を持ち込めば、無料で無制限に利用できます。

無料トライアルの仕組みは?

StandardとProプランには1週間の無料トライアルが付きます。トライアル終了前にキャンセルしなければ自動的にサブスクリプションが開始されます。Freeプランはトライアル不要で常に利用可能です。

サブスクリプションのキャンセル方法は?

iOS: 設定 > Apple ID > サブスクリプション > LocalRAG! > キャンセル。Android: Google Play > プロフィール > お支払いと定期購入 > 定期購入 > LocalRAG! > キャンセル。現在の請求期間終了の24時間前までにキャンセルしてください。

データのプライバシーは守られますか?

はい。テキスト抽出、分割、インデックス構築はすべてデバイス上で処理されます。AI に送信されるのは質問と関連テキストの一部のみです。元のドキュメントがデバイスの外に出ることはありません。

自分の API キーは使えますか?

はい。設定画面から Anthropic API キーを入力すると、Claude を直接利用できます。すべてのモデルにアクセスでき、利用料金は Anthropic に直接お支払いいただきます。API キーはデバイスの Keychain に安全に保存されます。

利用可能な AI モデルは?

Freeプラン: Claude Haiku 4.5。Standardプラン: Claude Sonnet 4.5 + Haiku 4.5。ProプランまたはBYOK: Claude Opus 4 を含む全モデル。各モデルは速度・精度・コストのバランスが異なります。

正しく回答されない場合は?

ドキュメントを再インポートして検索インデックスを再構築してみてください。質問はドキュメントの内容に関する具体的なものにしてください。スキャンPDFの場合は、OCR の品質が十分か確認してください。より高性能なモデルへの切り替えもお試しください。

対応している言語は?

アプリのインターフェースは日本語、英語、ドイツ語、スペイン語、フランス語、ポルトガル語、韓国語、中国語に対応しています。ドキュメントとのチャットはどの言語でも可能です。

オンデバイスAI(ローカルLLM)

オンデバイスAIにはどのような制限がありますか?

オンデバイスAI(ローカルLLM)はお使いのデバイス上で完全に動作し、プライバシーを最大限に保護します。コンパクトなモデルサイズのため、Claude APIと比較していくつかの制限があります:

  • 回答品質:複雑な質問に対しては、Claude APIほど詳細または正確な回答が得られない場合があります。
  • 言語をまたいだ検索:質問の言語とドキュメントの言語が異なる場合(例:日本語で英語のドキュメントについて質問する場合)、検索精度が低下します。ドキュメントと同じ言語で質問することをお勧めします。
  • 応答時間:デバイスの性能に依存します。ハイエンドデバイス:1〜3分、ミドルレンジデバイス:2〜5分。
  • モデルのダウンロード:初回に約3GBのダウンロードが必要です(Wi-Fi推奨)。
  • メモリ使用量:推論中に1〜2GBのRAMを使用します。他のアプリとの同時使用でパフォーマンスが低下する場合があります。
  • 会話の長さ:コンテキストウィンドウに制限があるため、長い会話では回答品質が低下する場合があります。チャットをクリアして再開すると改善されます。
  • Android:現在ベータ版です。デバイスによって動作が異なる場合があります。

オンデバイスAIでより良い回答を得るには?

回答品質を向上させるためのヒント:

  • ドキュメントと同じ言語で質問すると、最も正確な結果が得られます。
  • 具体的に質問してください — 具体的な質問のほうが一般的な質問よりも効果的です。
  • 複数回のやり取りで回答が不正確になった場合は、チャットをクリアして再開してください。
  • Androidでは、ハイエンドデバイス(例:Snapdragon 8 Gen 3)は4Bモデルでより高品質な回答が得られます。ミドルレンジデバイスでは、より高速な応答のために2Bモデルをお勧めします。
  • 複雑または重要な質問には、より高い精度のためにClaude APIへの切り替えをご検討ください。

なぜオンデバイスAIはClaude APIより遅いのですか?

Claude APIは高性能なクラウドサーバーで動作しますが、オンデバイスAIはお使いのデバイスのCPU上で完全に動作します。そのトレードオフとして完全なプライバシーが保証されます:データがサーバーに送信されることはありません。応答時間はデバイスの処理能力とモデルサイズ(2Bまたは4Bパラメータ)に依存します。

お困りですか?

ご質問やお困りの点がありましたら、お気軽にお問い合わせください。

[email protected]