Cisco AI Defense : validation des modèles et applications d'IA

Identifiez les vulnérabilités des modèles avec la validation de l'IA

Testez automatiquement vos modèles d'IA pour détecter les risques en matière de sécurité.

Testez la sécurité de vos modèles d'IA

La validation des modèles et des applications d'IA repose sur une évaluation automatisée et algorithmique des vulnérabilités en matière de sécurité, continuellement enrichie par les équipes de recherche sur les menaces liées à l'IA. Elle permet de mesurer la vulnérabilité des applications face aux menaces émergentes et de les protéger à l'aide de garde-fous activés à l'exécution.

Bloquez les attaques visant la chaîne d'approvisionnement de l'IA

Les développeurs téléchargent des modèles et des jeux de données depuis des référentiels publics, comme Hugging Face ou GitHub, exposant ainsi involontairement votre entreprise à des risques considérables. La validation de l'IA analyse automatiquement les modèles, les données et les fichiers Open Source pour neutraliser les menaces provenant de la chaîne d'approvisionnement, notamment les fichiers malveillants permettant l'exécution de code arbitraire dans votre environnement. À chaque ajout d'un nouveau modèle à votre registre, une évaluation peut être lancée via un simple appel d'API.

Identifiez les vulnérabilités propres à chaque modèle

Les modèles que vous sélectionnez pour optimiser vos applications peuvent introduire des risques en matière de sécurité. La validation de l'IA soumet les modèles à des tests fondés sur des invites générées par un algorithme qui couvre plus de 200 catégories. L'objectif : détecter les risques liés à des actions malveillantes (injection d'invites, empoisonnement des données, etc.) ou à des résultats imprévus. Cette approche s'applique également aux modèles en production, ce qui permet de détecter et de corriger automatiquement les nouvelles vulnérabilités.

Créez des garde-fous adaptés à chaque modèle

L'utilisation de garde-fous tiers permet de protéger vos applications d'IA contre les données corrompues, les requêtes malveillantes ou les divulgations involontaires. La validation de l'IA génère automatiquement des garde-fous propres aux vulnérabilités détectées sur chaque modèle pour une efficacité renforcée. Ces règles peuvent ensuite être ajustées en fonction de votre secteur d'activité, de vos cas d'usage ou de vos préférences.

Appliquez automatiquement les normes de sécurité de l'IA dans toute l'entreprise

Identifiez les modèles à valider

La visibilité sur l'IA dans le cloud permet de détecter automatiquement les modèles présents dans votre environnement qui nécessitent une validation et de lancer la validation de l'IA directement depuis le tableau de bord.

Automatisez la sécurité tout au long du cycle de vie des modèles d'IA

Une fois l'évaluation initiale terminée, la validation de l'IA exécute d'autres processus pour assurer une utilisation sécurisée des modèles.

Simplifiez la conformité grâce à des rapports automatisés

Générez automatiquement des rapports de vulnérabilité clairs à partir des résultats des tests, avec un alignement sur les normes sectorielles et réglementaires.

Visez l'excellence en matière de sécurisation de l'IA

Cisco AI Defense simplifie le respect des normes de sécurité de l'IA, notamment face aux menaces du classement Top 10 pour les applications LLM de la communauté OWASP. Apprenez-en plus sur les différents risques liés à l'IA et leur correspondance avec les normes MITRE, NIST et OWASP grâce à notre taxonomie de la sécurité de l'IA.

Testez les modèles qui optimisent vos applications

Modèles de fondation

Les modèles de fondation sont au cœur de la majorité des applications d'IA actuelles, qu'ils soient modifiés par réglage fin ou conçus sur mesure. Apprenez-en plus sur les défis à relever pour garantir leur sécurité.

Applications RAG

La génération augmentée de récupération (RAG) est en passe de devenir la norme pour enrichir le contexte des applications LLM. Apprenez-en plus sur ses implications en matière de sécurité.

Chatbots et agents d'IA

Les chatbots sont parmi les applications LLM les plus répandues, et les agents autonomes, capables d'agir au nom des utilisateurs, commencent à émerger. Apprenez-en plus sur les défis liés à leur sécurité.


Ressources complémentaires

Taxonomie de la sécurité de l'IA

Découvrez les menaces liées à l'IA générative : définitions, stratégie d'atténuation et classification des normes.

Le réglage fin compromet la sécurité des modèles LLM

Nos recherches montrent qu'un modèle ajusté par réglage fin est trois fois plus vulnérable aux attaques de type « jailbreak » (qui visent à contourner les garde-fous) et plus de 22 fois plus susceptible de produire des réponses nuisibles.

Architectures de référence pour la sécurité de l'IA

Pratiques et modèles de conception sécurisés pour les équipes qui développent des applications axées sur les grands modèles de langage (LLM).

Principes d'IA responsable de Cisco

Cisco s'engage à sécuriser l'intelligence artificielle et les technologies émergentes.

Le choix des entreprises pour sécuriser l'IA

Éliminez les vulnérabilités visant les modèles d'IA et accélérez votre transformation pour bénéficier d'une protection complète sur l'ensemble de votre environnement.