このガイドを使用して、AI Guard APIをアプリケーションに統合し、ポリシー違反やリスクのあるインタラクションを検出します。詳細については、AI Guard APIレファレンスを参照してください。
ヘッダ
|
名前
|
必須
|
説明
|
認証 |
はい
|
認証のためのベアラートークン。Trend Vision OneAPIキーを
Bearer {token}の形式で追加してください。 |
TMV1-Application-Name |
はい
|
プロンプトが評価されているAIアプリケーションの名前。文字、数字、ハイフン、アンダースコアのみを含む必要があります。最大長は64文字です。例:
my-ai-application |
TMV1-Request-Type |
No
|
評価されているリクエストのタイプ。リクエストボディの解析方法を決定します。
指定可能な値:
|
Prefer |
No
|
対応の詳細レベルを制御します。
指定可能な値:
|
クエリパラメータ
|
名前
|
必須
|
説明
|
detailedResponse |
No
|
API対応の詳細レベル。
可能な値には以下が含まれます:
|
要求
OpenAIチャット完了リクエスト形式
TMV1-Request-TypeがOpenAiChatCompletionRequestV1の場合:{
"model": "us.meta.llama3-1-70b-instruct-v1:0",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Your prompt text here"
}
]
}
OpenAIチャット完了対応形式
TMV1-Request-TypeがOpenAIChatCompletionResponseV1の場合:{
"id": "chatcmpl-8f88f71a-7d42-c548-d587-8fc8a17091b6",
"object": "chat.completion",
"created": 1748535080,
"model": "us.meta.llama3-1-70b-instruct-v1:0",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "Response content here",
"refusal": null
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 139,
"completion_tokens": 97,
"total_tokens": 236
}
}
TMV1-Request-TypeがSimpleRequstGuardrailsまたは指定されていない場合のシンプルなプロンプト形式:{
"prompt": "Your prompt text here"
}
対応
Preferがreturn-minimalまたは指定されていない場合の短い対応:{
"id": "1234567890abcdef",
"action": "Block",
"reasons": [
"Harmful Scanner exceeding threshold: H,V"
]
}
Preferがreturn=representationの場合の長い対応:{
"id": "1234567890abcdef",
"action": "Allow",
"reasons": [],
"harmfulContent": [
{
"category": "Sexual",
"hasPolicyViolation": false,
"confidenceScore": 0.05
}
{
"category": "Hate",
"hasPolicyViolation": false,
"confidenceScore": 0.02
}
{
"category": "Violence",
"hasPolicyViolation": false,
"confidenceScore": 0.01
}
{
"category": "Harassment",
"hasPolicyViolation": false,
"confidenceScore": 0.03
}
{
"category": "Self-harm",
"hasPolicyViolation": false,
"confidenceScore": 0.01
}
{
"category": "Sexual/minors",
"hasPolicyViolation": false,
"confidenceScore": 0.00
}
{
"category": "Hate/threatening",
"hasPolicyViolation": false,
"confidenceScore": 0.01
}
{
"category": "Violence/graphic",
"hasPolicyViolation": false,
"confidenceScore": 0.02
}
],
"sensitiveInformation": {
"hasPolicyViolation": false,
"rules": []
},
"promptAttacks": [
{
"hasPolicyViolation": false,
"confidence_score": 0.02
},
{
"hasPolicyViolation": false,
"confidence_score": 0.01
}
]
}
対応パラメーター
|
パラメータ
|
説明
|
id |
AI Guard評価の一意識別子。
|
action |
推奨されるアクション。
指定可能な値:
|
reasons |
アクションの説明、設定違反の詳細を含む。
|
harmfulContent |
入力または出力で検出された有害なコンテンツと信頼スコア。詳細な対応のみ。
|
sensitiveInformation |
個人識別情報 (PII) または機密情報に関連する検出された違反。詳細な対応のみ。
|
promptAttacks |
検出されたすべてのプロンプト攻撃の配列と、信頼度スコア。詳細な対応のみ。
|
一般的なエラー
APIは標準HTTPステータスコードを返します。
-
400リクエストが不正です: 詳細はエラーメッセージを確認してください -
403禁止: ユーザの権限が不十分または認証の問題 -
429リクエストが多すぎます: レート制限を超えました -
500内部サーバエラー: サーバ側で一時的な問題が発生しました
コード例
AI Guardをさまざまな言語で統合するためのサンプルコードを以下に示します。
