AI モデルと AI アプリケーションの検証では、モデルの安全性とセキュリティの脆弱性の評価がアルゴリズムによって自動的に実行され、AI 脅威リサーチチームによって継続的に更新されます。それにより、アプリケーションが新たな脅威の影響をどの程度受けるのかを把握し、AI ランタイムガードレールでそれらを保護することが可能になります。
基盤モデルは現在、ほとんどの AI アプリケーションの中核をなしており、微調整を経て修正されたもの、または専用に構築されたもののいずれかがあります。モデルを安全でセキュアに保つためにどのような課題に取り組む必要があるのかを紹介します。
検索拡張生成(RAG)は急速に LLM アプリケーションに豊富なコンテキストを追加するための標準になりつつあります。RAG の具体的なセキュリティと安全性への影響について紹介します。
チャットボットは人気のある LLM アプリケーションであり、ユーザーに代わってアクションを実行する自律エージェントも登場し始めています。セキュリティと安全性のリスクについて紹介します。