放心引入第三方和开源 AI 模型。主动拦截恶意模型,确保满足合规要求,防止 AI 运营受到影响。
面对 AI 模型漏洞、合规挑战和地缘政治风险,传统工具显得力不从心,这严重阻碍了 AI 的安全落地与创新发展。
在环境中部署模型之前,识别并拦截其组件中的恶意代码、验证其许可证的合规性,并确保其来源可信。
思科会持续扫描 Hugging Face 等公共存储库,及时发现 AI 模型文件内含的恶意代码和漏洞。扫描存储库有助于精准识别潜在威胁,防止其进入企业环境。
检测并拦截采用高风险或限制性开源软件许可证(例如 GPL 等著佐权许可证)的 AI 模型,以规避知识产权 (IP) 与合规风险。这有助于确保企业合法使用 AI 模型,避免无意间侵犯他人知识产权。
标记源自地缘政治敏感地区的 AI 模型,并强制执行相应策略。基于潜在的地缘政治责任确保合规运营,有效减轻潜在风险。
确保构建 AI 应用所用的第三方与开源模型及其组件从开发初期即满足安全与合规要求。
在恶意 AI 模型进入企业环境前及时拦截,以防发生安全事件和数据泄露。
自动检测限制性许可证,避免侵犯知识产权。
根据模型来源执行相应策略,确保符合供应商风险管理及企业合规要求。
借助由 Cisco Security Cloud 提供支持的多个策略执行点,有效阻止高风险 AI 模型进入企业基础设施。
直接在终端检测并隔离存在风险的 AI 资产。
拦截违反安全策略的模型及其组件,防止它们通过电子邮件进入企业环境。
监控并拦截从在线存储库下载高风险 AI 资产的企图。
轻松遵循各项 AI 安全标准,如针对大语言模型 (LLM) 应用的 OWASP Top 10。有效缓解各类 AI 风险,并了解这些风险与 MITRE、NIST 和 OWASP 等标准之间的对应关系。
该团队汇聚顶尖 AI 与安全专家,致力于研发前沿技术以应对 AI 时代的安全挑战。其目标是将 AI 模型威胁评估与检测能力同网络策略执行相结合,助力企业加速 AI 应用落地与创新发展。
弥合 AI 安全短板,为企业 AI 转型之路扫清障碍,获得覆盖整个环境的周全防护。