Cisco AI Defense : Validation des modèles et applications d’intelligence artificielle

Identifiez les vulnérabilités des modèles avec AI Validation

Testez automatiquement les modèles d’intelligence artificielle afin de détecter les risques liés à la sécurité.

La certitude que vos modèles sont sûrs

La validation des modèles et applications d’intelligence artificielle repose sur une analyse algorithmique automatisée des vulnérabilités des modèles, constamment actualisée par les équipes de recherche en vulnérabilités liées à l’intelligence artificielle. Celle-ci vous permet d’évaluer la vulnérabilité de vos applications face aux menaces émergentes et de vous en protéger grâce à des garde-fous basés sur AI Runtime.

Prévenez les attaques de votre chaîne logistique basée sur l’intelligence artificielle

Les développeurs téléchargent des modèles et des données à partir de référentiels publics, comme Hugging Face ou GitHub, exposant involontairement votre organisation à des risques majeurs. AI Validation analyse automatiquement les modèles, les données et les fichiers ouverts (Open Source) afin de bloquer les menaces qui pèsent sur la chaîne logistique, comme les fichiers malveillants permettant l’exécution de code arbitraire dans votre environnement. Lorsqu’un nouveau modèle est ajouté à votre registre, une évaluation peut être lancée via un simple appel d’API.

Identifiez les vulnérabilités de vos modèles

Les modèles que vous sélectionnez pour vos applications ont des implications en matière de sécurité. AI Validation teste les modèles à l’aide de requêtes générées par algorithme dans 200 catégories, afin de détecter les points de vulnérabilité face aux actions malveillantes, comme l’injection de requêtes ou l’empoisonnement des données, ou face à des comportements involontaires. Ce test s’étend aux modèles déjà en production, permettant la détection et la correction automatique de nouvelles vulnérabilités.

Créez des garde-fous adaptés à chaque modèle

L’utilisation de garde-fous tiers empêche vos applications d’intelligence artificielle d’apprendre à partir de données corrompues, de répondre à des requêtes malveillantes ou de divulguer des informations. AI Validation génère automatiquement des garde-fous basés sur les vulnérabilités identifiées dans chaque modèle, ce qui renforce leur efficacité. Ces règles peuvent ensuite être adaptées au secteur d’activité, aux scénarios ou aux préférences de l’entreprise.

Appliquez automatiquement les normes de sécurité de l’intelligence artificielle à l’échelle de votre organisation

Identifiez l’état de validation des modèles

AI Cloud Visibility détecte automatiquement les modèles de votre environnement qui nécessitent une validation, et permet de lancer directement AI Validation depuis le tableau de bord.

Automatisez la sécurité de l’intelligence artificielle tout au long du cycle de vie du modèle

Une fois l’évaluation initiale terminée, AI Validation exécute des processus supplémentaires pour assurer une utilisation sécurisée et fiable de vos modèles.

Bénéficiez d’une mise en conformité simplifiée grâce à des rapports automatisés

Générez automatiquement des rapports de vulnérabilités clairs, transformant les résultats des tests en documents lisibles, et conformes aux normes du secteur et aux exigences réglementaires.

Atteignez l’excellence en matière de sécurité de l’intelligence artificielle au sein de votre organisation

AI Defense permet de se conformer facilement aux normes de sécurité de l’intelligence artificielle telles que l’OWASP Top 10 pour les applications LLM. Découvrez les risques liés à l’intelligence artificielle et leur lien avec les normes MITRE, NIST et OWASP dans notre taxonomie de la sécurité de l’intelligence artificielle.

Testez les modèles qui alimentent votre application

Modèles de base

Les modèles de base sont au cœur de la plupart des applications d’intelligence artificielle actuelles, qu’ils soient modifiés par ajustement ou créés sur mesure. Découvrez les défis à relever pour garantir leur sécurité et leur fiabilité.

Applications RAG

La génération augmentée de récupération (RAG) devient rapidement la norme pour enrichir le contexte des applications LLM. Découvrez les implications spécifiques de la RAG en matière de sécurité.

Robots conversationnels et agents basés sur l’intelligence artificielle

Les robots conversationnels constituent une application majeure des LLM, tandis que les agents autonomes, capables d’agir au nom des utilisateurs, émergent progressivement. Découvrez les risques qu’ils représentent en matière de sécurité.


Ressources supplémentaires

Taxonomie de la sécurité de l’intelligence artificielle

Familiarisez-vous avec le paysage des menaces liées à l’intelligence artificielle générative en consultant les définitions, les mesures d’atténuation et les classifications des normes.

L’ajustement des LLM compromet leur sécurité

Selon nos études, les modèles ajustés sont trois fois plus vulnérables aux tentatives d’évasion et 22 fois plus enclins à produire des réponses nuisibles.

Architectures de référence en matière de sécurité de l’intelligence artificielle

Découvrez les modèles de conception et les pratiques de sécurité à adopter pour le développement d’applications basées sur des LLM.

Principes d’intelligence artificielle responsable de Cisco

Cisco s’engage à garantir la sécurité de l’intelligence artificielle et des technologies émergentes.

Le choix des entreprises en matière de sécurité de l’intelligence artificielle

Comblez les failles de sécurité de l’intelligence artificielle et accélérez votre transformation, tout en bénéficiant d’une protection globale de votre environnement.