发现团队在构建 AI 应用时所使用的模型及关联数据源。
借助 AI 云可视性,您可以集中查看散布于公共云和虚拟私有云中的各项 AI 资产,并获取所需数据,从而制定更明智的安全决策。
如今,开发人员正以前所未有的速度构建 AI 应用,这其中涉及大量的模型部署与数据连接。AI 云可视性能自动发现分布式环境中定制化 AI 应用所涉及的各项 AI 资产,包括未经批准的 AI 工作负载。该组件可提供统一视图,方便您自动盘点公司的 AI 安全风险。
在评估 AI 系统(特别是检索增强生成 [RAG] 应用和 AI 代理)的风险时,必须充分考虑其相关资产和具体使用情况。AI 云可视性可提供必要情景信息,包括相关活动、连接类型以及访问未经批准模型的身份数量,助您就如何确保 AI 资产的安全制定明智决策。
无论是在开发还是生产环境中,AI 模型都潜藏着安全风险。AI 云可视性可助您轻松识别各模型所应用的安全控制措施。您可以直接在控制面板中启动算法漏洞测试,并将相应策略添加至防护措施,从而为运行中的应用提供周全保护。
自动发现公共云和虚拟私有云环境(包括 Amazon Web Services、Google Cloud Platform 和 Microsoft Azure)中的 AI 工作负载。
自动标注最新变动,助您快速评估环境中新增的 AI 资产与最新建立的连接。
AI 云可视性可评估网络流量,精准定位托管于数据中心和云环境中的模型,以及应用所调用的各类软件即服务 (SaaS)。
借助 AI Defense,轻松遵循各项 AI 安全标准,包括面向大语言模型 (LLM) 应用的 OWASP Top 10。如需详细了解各类 AI 风险及其与 MITRE、NIST 和 OWASP 等标准之间的对应关系,请参阅我们的 AI 安全分类。
全面了解生成式 AI 所面临的威胁形势,掌握相关定义、缓解措施和标准分类。
查看有关 AI 攻击手法的最新研究和分析成果,并了解这些成果如何助力我们完善检测机制。
面向 LLM 应用开发团队的安全设计模式与实践。
思科致力于为 AI 及其他新兴技术提供安全保障。
弥合 AI 安全短板,为企业 AI 转型之路扫清障碍,获得覆盖整个环境的周全防护。