ビュー:
このガイドを使用して、AI Guard APIをアプリケーションに統合し、ポリシー違反やリスクのあるインタラクションを検出します。詳細については、AI Guard APIレファレンスを参照してください。

ヘッダ

名前
必須
説明
認証
はい
認証のためのベアラートークン。Trend Vision OneAPIキーをBearer {token}の形式で追加してください。
TMV1-Application-Name
はい
プロンプトが評価されているAIアプリケーションの名前。文字、数字、ハイフン、アンダースコアのみを含む必要があります。最大長は64文字です。例: my-ai-application
TMV1-Request-Type
No
評価されているリクエストのタイプ。リクエストボディの解析方法を決定します。
指定可能な値:
  • SimpleRequestGuard: シンプルなプロンプト文字列 (デフォルト)
  • OpenAIChatCompletionRequestV1: OpenAIチャット完了リクエスト形式
  • OpenAIChatCompletionResponseV1: OpenAIチャット完了対応形式
Prefer
No
対応の詳細レベルを制御します。
指定可能な値:
  • return=minimal: 対応アクションと高レベルの理由のみを含む短い対応を返します (デフォルト)
  • return=representation: アクション、上位の理由、フラグや信頼度スコアなどのカテゴリごとの分類メタデータを含むモデレーション結果のJSON表現を返します

クエリパラメータ

名前
必須
説明
detailedResponse
No
API対応の詳細レベル。
可能な値には以下が含まれます:
  • false: AIガード設定 (デフォルト) に基づくプロンプトの簡易評価。
  • true: AI Guard設定に基づくプロンプトの詳細な評価。

要求

OpenAIチャット完了リクエスト形式TMV1-Request-TypeOpenAiChatCompletionRequestV1の場合:
{
  "model": "us.meta.llama3-1-70b-instruct-v1:0",
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Your prompt text here"
    }
  ]
}
OpenAIチャット完了対応形式TMV1-Request-TypeOpenAIChatCompletionResponseV1の場合:
{
  "id": "chatcmpl-8f88f71a-7d42-c548-d587-8fc8a17091b6",
  "object": "chat.completion",
  "created": 1748535080,
  "model": "us.meta.llama3-1-70b-instruct-v1:0",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Response content here",
        "refusal": null
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 139,
    "completion_tokens": 97,
    "total_tokens": 236
  }
}
TMV1-Request-TypeSimpleRequstGuardrailsまたは指定されていない場合のシンプルなプロンプト形式:
{
  "prompt": "Your prompt text here"
}

対応

Preferreturn-minimalまたは指定されていない場合の短い対応:
{
    "id": "1234567890abcdef",
    "action": "Block",
    "reasons": [
      "Harmful Scanner exceeding threshold: H,V"
    ]
  }
Preferreturn=representationの場合の長い対応:
{
    "id": "1234567890abcdef",
    "action": "Allow",
    "reasons": [],
    "harmfulContent": [
      {
        "category": "Sexual",
        "hasPolicyViolation": false,
        "confidenceScore": 0.05
      }
      {
        "category": "Hate",
        "hasPolicyViolation": false,
        "confidenceScore": 0.02
      }
      {
        "category": "Violence",
        "hasPolicyViolation": false,
        "confidenceScore": 0.01
      }
      {
        "category": "Harassment",
        "hasPolicyViolation": false,
        "confidenceScore": 0.03
      }
      {
        "category": "Self-harm",
        "hasPolicyViolation": false,
        "confidenceScore": 0.01
      }
      {
        "category": "Sexual/minors",
        "hasPolicyViolation": false,
        "confidenceScore": 0.00
      }
      {
        "category": "Hate/threatening",
        "hasPolicyViolation": false,
        "confidenceScore": 0.01
      }
      {
        "category": "Violence/graphic",
        "hasPolicyViolation": false,
        "confidenceScore": 0.02
      }
    ],
    "sensitiveInformation": {
      "hasPolicyViolation": false,
      "rules": []
    },
    "promptAttacks": [
      {
        "hasPolicyViolation": false,
        "confidence_score": 0.02
      },
      {
        "hasPolicyViolation": false,
        "confidence_score": 0.01
      }
    ]
  }

対応パラメーター

パラメータ
説明
id
AI Guard評価の一意識別子。
action
推奨されるアクション。
指定可能な値:
  • 許可
  • ブロック
reasons
アクションの説明、設定違反の詳細を含む。
harmfulContent
入力または出力で検出された有害なコンテンツと信頼スコア。詳細な対応のみ。
sensitiveInformation
個人識別情報 (PII) または機密情報に関連する検出された違反。詳細な対応のみ。
promptAttacks
検出されたすべてのプロンプト攻撃の配列と、信頼度スコア。詳細な対応のみ。

一般的なエラー

APIは標準HTTPステータスコードを返します。
  • 400 リクエストが不正です: 詳細はエラーメッセージを確認してください
  • 403 禁止: ユーザの権限が不十分または認証の問題
  • 429 リクエストが多すぎます: レート制限を超えました
  • 500内部サーバエラー: サーバ側で一時的な問題が発生しました

コード例

AI Guardをさまざまな言語で統合するためのサンプルコードを以下に示します。