Ansichten:

Durchsuchen Sie Ihre KI-Modelle nach gängigen Angriffstechniken, Angriffsziele sowie schädlichen oder sensiblen Inhalten in Eingaben und Ausgaben.

Wichtig
Wichtig
Dies ist eine 'vorab veröffentlichte' Funktion und gilt nicht als offizielle Version. Lesen Sie Vorab-Haftungsausschluss vor der Verwendung der Funktion.
Hinweis
Hinweis
Diese Funktion ist nicht in allen Regionen verfügbar.
AI Application Security ermöglicht es Ihnen, bösartige Eingaben abzufangen und potenziell schädliche Ausgaben Ihrer KI-Modelle zu sperren, was dazu beiträgt, ausbeuterische Nutzung zu verhindern und die Einhaltung von Vorschriften zu gewährleisten.
Gehen Sie zu Cloud SecuritySecurity for AI StackAI Application Security und klicken Sie auf Get started unter entweder KI-Scanner oder KI-Wächter, je nach Anwendungsfall:
  • KI-Scanner: Durchsuchen Sie Ihre KI-Modelle nach gängigen Angriffstechniken und -zielen, um bösartige Nutzung zu verhindern und die Einhaltung von Vorschriften sicherzustellen.
    Weitere Informationen zur Konfiguration eines Scans finden Sie unter Sucheinstellungen konfigurieren.
  • KI-Wächter: Einstellungen konfigurieren, um Ihre KI-Nutzung auf schädliche Inhaltserzeugung, Leckage sensibler Informationen und Eingabeaufforderungsinjektionen zu durchsuchen.
    Weitere Informationen zur Integration von KI Guard in Ihre Anwendung finden Sie unter KI-Schutz integrieren.