La validation des modèles et des applications d'IA repose sur une évaluation automatisée et algorithmique des vulnérabilités en matière de sécurité, continuellement enrichie par les équipes de recherche sur les menaces liées à l'IA. Elle permet de mesurer la vulnérabilité des applications face aux menaces émergentes et de les protéger à l'aide de garde-fous activés à l'exécution.
Cisco AI Defense simplifie le respect des normes de sécurité de l'IA, notamment face aux menaces du classement Top 10 pour les applications LLM de la communauté OWASP. Apprenez-en plus sur les différents risques liés à l'IA et leur correspondance avec les normes MITRE, NIST et OWASP grâce à notre taxonomie de la sécurité de l'IA.
Les modèles de fondation sont au cœur de la majorité des applications d'IA actuelles, qu'ils soient modifiés par réglage fin ou conçus sur mesure. Apprenez-en plus sur les défis à relever pour garantir leur sécurité.
La génération augmentée de récupération (RAG) est en passe de devenir la norme pour enrichir le contexte des applications LLM. Apprenez-en plus sur ses implications en matière de sécurité.
Les chatbots sont parmi les applications LLM les plus répandues, et les agents autonomes, capables d'agir au nom des utilisateurs, commencent à émerger. Apprenez-en plus sur les défis liés à leur sécurité.