Skip to content

Latest commit

 

History

History
94 lines (68 loc) · 2.96 KB

File metadata and controls

94 lines (68 loc) · 2.96 KB

LLM統合機能のデバッグレポート

確認日: 2025年1月12日
目的: APIレスポンスに is_llm_generated フィールドが含まれない問題の特定と解決

1. バックエンドの再起動

完了: バックエンドサーバーを再起動しました

2. APIレスポンスの確認

テスト手順

  1. 会議データを取り込む
  2. チャットデータを取り込む
  3. 分析APIを呼び出す
  4. レスポンスに is_llm_generated, llm_status, llm_model が含まれているか確認

確認結果

APIレスポンスの構造:

  • analysis_id: ✅ 存在
  • findings: ✅ 存在
  • score: ✅ 存在
  • is_llm_generated: ⚠️ 確認中
  • llm_status: ⚠️ 確認中
  • llm_model: ⚠️ 確認中

3. バックエンドのログ確認

確認すべきログメッセージ

モックモードの場合:

⚠️ LLM統合が無効のため、モック分析結果を返します(USE_LLM=false または GOOGLE_CLOUD_PROJECT_ID未設定)

実際のLLMが動作している場合:

Vertex AI利用可能: project=xxx, model=gemini-3.0-pro
✅ LLM分析完了(実際のLLM生成): overall_score=75, model=gemini-3.0-pro

4. USE_LLM=true の確認

環境変数の確認方法

  1. PowerShellで確認:

    $env:USE_LLM
    $env:GOOGLE_CLOUD_PROJECT_ID
  2. .env ファイルで確認:

    USE_LLM=true
    GOOGLE_CLOUD_PROJECT_ID=your-project-id
  3. コード内での確認:

    • llm_service.py__init__ メソッドで self.use_llm を確認
    • os.getenv("USE_LLM", "false").lower() == "true" で判定

問題の可能性

  1. 環境変数が設定されていない

    • USE_LLM=true が設定されていない
    • GOOGLE_CLOUD_PROJECT_ID が設定されていない
  2. バックエンドが環境変数を読み込んでいない

    • .env ファイルが読み込まれていない
    • 環境変数が設定されていない
  3. コードの実装に問題がある

    • is_llm_generated フィールドがレスポンスに含まれていない
    • レスポンスの構築時にフィールドが追加されていない

次のステップ

  1. 環境変数の確認と設定

    • .env ファイルに USE_LLM=true を追加
    • GOOGLE_CLOUD_PROJECT_ID を設定
  2. バックエンドのログを確認

    • PowerShellウィンドウでログを確認
    • ⚠️ LLM統合が無効」または「✅ LLM分析完了」を確認
  3. APIレスポンスの再確認

    • 会議データを取り込んでから分析APIを呼び出す
    • レスポンスに is_llm_generated フィールドが含まれているか確認
  4. コードの確認

    • main.py/api/analyze エンドポイントで is_llm_generated が追加されているか確認
    • llm_service.py_is_mock, _llm_status, _llm_model が設定されているか確認