Cisco AI Defense: Validierung von KI-Modellen und -Anwendungen

Mit KI-Validierung Schwachstellen von Modellen aufdecken

Prüfen Sie KI-Modelle automatisch auf Sicherheitsrisiken.

Verlassen Sie sich darauf, dass Ihre Modelle sicher sind

Bei der Validierung von KI-Modellen und -Anwendungen wird eine automatische, algorithmische Bewertung der Sicherheitsschwachstellen eines Modells durchgeführt, die durch das AI Threat Research-Team ständig aktualisiert wird. So können Sie die Anfälligkeit Ihrer Anwendungen für neue Bedrohungen erkennen und sich mithilfe von Laufzeitleitlinien für KI-Anwendungen dagegen wappnen.

Angriffe auf die KI-Lieferkette verhindern

EntwicklerInnen laden Modelle und Daten von öffentlichen Repositorys herunter, darunter Hugging Face und GitHub, und setzen Ihr Unternehmen damit unbeabsichtigt erheblichen Risiken aus. Bei der KI-Validierung werden Open-Source-Modelle, -Daten und -Dateien automatisch gescannt, um Bedrohungen der Lieferkette zu blockieren, z. B. schädliche Modelldateien, welche die Ausführung von beliebigem Code in Ihrer Umgebung ermöglichen können. Wenn ein neues Modell in Ihr Registry eingegeben wird, kann eine Bewertung mit einem einfachen API-Aufruf gestartet werden.

Schwachstellen von Modellen entdecken

Die zur Unterstützung Ihrer Anwendungen ausgewählten Modelle haben Auswirkungen auf die Sicherheit. Bei der KI-Validierung werden Modelle anhand von algorithmisch generierten Eingabeaufforderungen in 200 Kategorien getestet, um die Anfälligkeit für schädliche Aktionen wie Prompt Injection und Data Poisoning oder ungewollte Ergebnisse zu ermitteln. Diese Bewertung kann auch für Modelle in der Produktion durchgeführt werden, sodass neue Schwachstellen in bestehenden Modellen automatisch entdeckt und behoben werden können.

Modellspezifische Schutzmaßnahmen erstellen

Die Verwendung von Schutzmechanismen von Drittanbietern verhindert, dass Ihre KI-Anwendungen aus fehlerhaften Daten lernen, auf böswillige Anfragen reagieren und unbeabsichtigte Informationen weitergeben. Die KI-Validierung generiert automatisch Schutzmaßnahmen, die auf die in jedem Modell erkannten spezifischen Schwachstellen zugeschnitten sind, und verbessert so deren Wirksamkeit. Diese Regeln können an die Branche, den Anwendungsfall oder die Präferenzen eines Unternehmens angepasst werden.

Automatische Durchsetzung von KI-Sicherheitsstandards im gesamten Unternehmen

Den Validierungsstatus von Modellen bestimmen

Die KI-Cloud-Sichtbarkeit erkennt automatisch, welche Modelle in Ihrer Umgebung validiert werden müssen, sodass Sie die KI-Validierung direkt über das Dashboard starten können.

KI-Sicherheit im Modelllebenszyklus automatisieren

Nach Abschluss einer ersten Modellbewertung führt die KI-Validierung zusätzliche Prozesse durch, um zu gewährleisten, dass Ihre Modelle sicher verwendet werden können.

Compliance mit automatisierter Berichterstellung vereinfachen

Erstellen Sie automatisch Schwachstellenberichte, in denen Testergebnisse in einen einfach zu lesenden Bericht übersetzt werden, der den Branchen- und Regulierungsstandards entspricht.

Herausragende KI-Sicherheit im gesamten Unternehmen

AI Defense erleichtert die Einhaltung von KI-Sicherheitsstandards, einschließlich der OWASP Top 10 für LLM-Anwendungen. In unserer KI-Sicherheits-Taxonomie erfahren Sie mehr über einzelne KI-Risiken und darüber, wie sich diese auf Standards von MITRE, NIST und OWASP beziehen.

Modelle zur Unterstützung Ihrer Anwendungen

Basismodelle

Heutzutage bilden Basismodelle, die entweder durch Feinabstimmung modifiziert oder speziell entwickelt wurden, den Kern der meisten KI-Anwendungen. Erfahren Sie, welche Herausforderungen bewältigt werden müssen, damit die Modelle sicher sind.

RAG-Anwendungen

Retrieval Augmented Generation (RAG) entwickelt sich gerade zu einem Standard, um LLM-Anwendungen mit umfangreichem Kontext zu versehen. Informieren Sie sich über die besonderen Auswirkungen von RAG auf die Sicherheit.

KI-Chatbots und -Agenten

Chatbots sind eine beliebte LLM-Anwendung und es gibt immer mehr autonome Agenten, die Handlungen im Namen von Usern ausführen. Erfahren Sie mehr über die damit verbundenen Sicherheitsrisiken.


Weitere Ressourcen

Taxonomie für KI-Sicherheit

Mit diesen Definitionen, Abhilfemaßnahmen und Standardklassifizierungen erhalten Sie ein besseres Verständnis über die Bedrohungslandschaft im Zusammenhang mit generativer KI.

Die Feinabstimmung von LLMs beeinträchtigt die Sicherheit

Unsere Untersuchungen zeigen, dass eine Feinabstimmung Modelle dreimal anfälliger für Jailbreaks macht und die Wahrscheinlichkeit einer schädlichen Reaktion um das 22-Fache erhöht.

KI-Sicherheitsreferenzarchitekturen

Sichere Entwurfsmuster und Praktiken für Teams, die LLM-gestützte Anwendungen entwickeln.

Cisco Prinzipien für verantwortungsvolle KI

Die Sicherheit in den Bereichen KI und neue Technologien hat einen hohen Stellenwert bei Cisco.

Die erste Wahl in Sachen KI-Sicherheit

Schließen Sie die KI-Sicherheitslücke und bringen Sie Ihre KI-Transformation mit umfassendem Schutz für Ihre gesamte Umgebung voran