LLM プロバイダー パネルでは、LLM アカウントを使用し、静的解析違反に対して推奨される修正を生成するための設定を行うことができます。この機能は、OpenAI の GPT-4o および GPT-4o-mini でテスト済みです。
注意:
- Visual Studio の LLM 統合は、VS 2019 以降がサポートされています。
- この機能は VB.NET をサポートしていません。
- ライセンスで LLM Integration 機能が有効化されている必要があります。
- OpenAI、Azure OpenAI またはその他の LLM プロバイダー アカウントにアクセスできる必要があります。
注意: OpenAI REST API と互換性があるチャット コンプリーション エンドポイントを持つ LLM だけがサポートされています。
LLM 機能を有効化するには、次の操作を行います。
IDE の [Parasoft] メニューをクリックし、 [オプション] をクリックします。
- [LLM プロバイダー] をクリックします。
- 以下のオプションを設定します。
有効化: 静的解析違反に対する AI 推奨の修正の生成を有効化します。
- プロバイダー: OpenAI、Azure OpenAI または その他を選択します。
- 設定 (OpenAI)
- API キー: OpenAI のトークンです。
- 組織 ID: OpenAI クライアントにアクセスする際に使用する組織 ID です。任意オプションです。組織 ID が指定されていない場合、アカウントのデフォルトの組織 ID が使用されます。
- 接続のテスト: クリックして OpenAI への接続をテストします。
- モデル > チャット: gpt-4o など、OpenAI モデルの名前です。
- モデル > 埋め込み: (任意) Open AI 埋め込みモデルの名前です。
- 設定 (Azure OpenAI)
- リソース名: デプロイ済みの Azure OpenAI モデルを含む Azure リソースです。
- API キー: Azure OpenAI のトークンです。
- デプロイメント ID > チャット: Azure OpenAI モデルのデプロイメント名です。
- デプロイメント ID > 埋め込み: (任意) Azure OpenAI 埋め込みモデルのデプロイメント名です。
- 接続のテスト: クリックして Azure OpenAI への接続をテストします。
- 設定 (その他)
- ベース URL: LLM モデルがデプロイされている場所の URL です。
- API キー / アクセス トークン: LLM プロバイダー トークンです。
- モデル > チャット: LLM モデルの名前です。
- モデル > 埋め込み: (任意) LLM 埋め込みモデルの名前です。
- 接続のテスト: クリックして LLM プロバイダーへの接続をテストします。
LLM は不正確な情報を生成する場合があります。このことは、LLM に依存する製品機能に影響を与える可能性があります。