Ansichten:
Verwenden Sie diesen Leitfaden, um die KI Guard API in Ihre Anwendungen zu integrieren, um Richtlinienverstöße und gefährliche Interaktionen zu erkennen. Weitere Informationen finden Sie im KI Guard API Reference.

Kopfzeilen

Name
Erforderlich
Beschreibung
Autorisierung
Ja
Das Trägertoken für die Authentifizierung. Fügen Sie den Trend Vision One API-Schlüssel im Format Bearer {token} hinzu.
TMV1-Application-Name
Ja
Der Name der KI-Anwendung, deren Eingabeaufforderungen bewertet werden. Muss nur Buchstaben, Zahlen, Bindestriche und Unterstriche enthalten. Maximale Länge beträgt 64 Zeichen. Beispiel: my-ai-application
TMV1-Request-Type
No
Der Typ der zu bewertenden Anfrage. Bestimmt, wie der Anfragetext analysiert wird.
Mögliche Werte:
  • SimpleRequestGuard: Einfacher Eingabeaufforderungsstring (Standard)
  • OpenAIChatCompletionRequestV1: OpenAI Chat-Abschlussanforderungsformat
  • OpenAIChatCompletionResponseV1: OpenAI-Chat-Antwortformat
Prefer
No
Steuert den Detaillierungsgrad in der Antwort.
Mögliche Werte:
  • return=minimal: Gibt eine kurze Antwort mit nur Moderationsaktion und allgemeinen Gründen zurück (Standard)
  • return=representation: Gibt eine JSON-Darstellung des Moderationsergebnisses zurück, einschließlich der Aktion, der übergeordneten Gründe und der Kategorisierungsmethoden wie Flags und Vertrauenswerte

Abfrageparameter

Name
Erforderlich
Beschreibung
detailedResponse
No
Das Detailgrad der API-Antwort.
Mögliche Werte sind:
  • false: Eine kurze Bewertung Ihrer Eingaben basierend auf den KI Guard-Einstellungen (Standard).
  • true: Eine detaillierte Bewertung Ihrer Eingaben basierend auf den KI Guard-Einstellungen.

Anforderung

OpenAI-Chat-Abschlussanforderungsformat, wenn TMV1-Request-Type OpenAiChatCompletionRequestV1 ist:
{
  "model": "us.meta.llama3-1-70b-instruct-v1:0",
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Your prompt text here"
    }
  ]
}
OpenAI-Chat-Antwortformat, wenn TMV1-Request-Type OpenAIChatCompletionResponseV1 ist:
{
  "id": "chatcmpl-8f88f71a-7d42-c548-d587-8fc8a17091b6",
  "object": "chat.completion",
  "created": 1748535080,
  "model": "us.meta.llama3-1-70b-instruct-v1:0",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Response content here",
        "refusal": null
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 139,
    "completion_tokens": 97,
    "total_tokens": 236
  }
}
Einfaches Eingabeaufforderungsformat, wenn TMV1-Request-Type SimpleRequstGuardrails ist oder nicht angegeben:
{
  "prompt": "Your prompt text here"
}

Antwort

Kurze Antwort, wenn Prefer return-minimal ist oder nicht angegeben:
{
    "id": "1234567890abcdef",
    "action": "Block",
    "reasons": [
      "Harmful Scanner exceeding threshold: H,V"
    ]
  }
Längere Antwort, wenn Prefer return=representation ist:
{
    "id": "1234567890abcdef",
    "action": "Allow",
    "reasons": [],
    "harmfulContent": [
      {
        "category": "Sexual",
        "hasPolicyViolation": false,
        "confidenceScore": 0.05
      }
      {
        "category": "Hate",
        "hasPolicyViolation": false,
        "confidenceScore": 0.02
      }
      {
        "category": "Violence",
        "hasPolicyViolation": false,
        "confidenceScore": 0.01
      }
      {
        "category": "Harassment",
        "hasPolicyViolation": false,
        "confidenceScore": 0.03
      }
      {
        "category": "Self-harm",
        "hasPolicyViolation": false,
        "confidenceScore": 0.01
      }
      {
        "category": "Sexual/minors",
        "hasPolicyViolation": false,
        "confidenceScore": 0.00
      }
      {
        "category": "Hate/threatening",
        "hasPolicyViolation": false,
        "confidenceScore": 0.01
      }
      {
        "category": "Violence/graphic",
        "hasPolicyViolation": false,
        "confidenceScore": 0.02
      }
    ],
    "sensitiveInformation": {
      "hasPolicyViolation": false,
      "rules": []
    },
    "promptAttacks": [
      {
        "hasPolicyViolation": false,
        "confidence_score": 0.02
      },
      {
        "hasPolicyViolation": false,
        "confidence_score": 0.01
      }
    ]
  }

Antwortparameter

Parameter
Beschreibung
id
Der eindeutige Bezeichner der KI Guard-Bewertung.
Aktion
Die empfohlene Aktion.
Mögliche Werte:
  • Zulassen
  • Sperren
reasons
Die Erklärung der Aktion, einschließlich der Details zum Einstellungsverstoß.
harmfulContent
Jeglicher schädlicher Inhalt, der in den Eingaben oder Ausgaben erkannt wurde, mit Vertrauensbewertungen. Nur detaillierte Antwort.
sensitiveInformation
Alle erkannten Verstöße im Zusammenhang mit personenbezogenen Daten (PII) oder sensiblen Informationen. Nur detaillierte Antwort.
promptAttacks
Ein Array aller erkannten Prompt-Angriffe mit Vertrauensbewertungen. Nur detaillierte Antwort.

Häufige Fehler

Die API gibt standardmäßige HTTP-Statuscodes zurück:
  • 400 Ungültige Anfrage: Überprüfen Sie die Fehlermeldung für weitere Details
  • 403 Verboten: Unzureichende Benutzerberechtigungen oder ein Authentifizierungsproblem
  • 429 Zu viele Anfragen: Ratenlimit überschritten
  • 500 Interner Serverfehler: Ein vorübergehendes Problem ist auf der Serverseite aufgetreten

Beispiele für Code

Sehen Sie sich den folgenden Beispielcode zur Integration von KI Guard in verschiedenen Sprachen an: