セキュアなAIトランスフォーメーションの実現を目指すRobust Intelligenceが日本語LLM対応の「AI Firewall®」を提供開始
2024/5/21
End-to-EndのAIリスク管理ソリューションを提供し、セキュアなAIトランスフォーメーションの実現を目指すシリコンバレー発のAIスタートアップ・Robust Intelligence, Inc.は、最新のAIリスク研究の知見に基づき、リアルタイムでAIアプリケーションを有害な入出力から保護する「AI Firewall」の提供を開始する。英語および日本語の大規模言語モデル(以下:LLM)のリスクに対応している。
ロバストインテリジェンスがこれまで提供してきた、Test-Drivenアプローチ(https://www.robustintelligence.com/jp-blog-posts/test-driven-approach-for-ai-deployment)によるAIの脆弱性の検証と対策は、安全なAIアプリケーションの開発・運用において非常に有効性が高いものだが、これだけでは十分なリスク対策とは言えなくなりつつある。
ChatGPTの普及以降広く知られるようになった「ハルシネーション」「差別的・攻撃的な出力」などの出力の問題にとどまらず、日々AIに対する新たな攻撃手法が発見・報告されている昨今、生成AIの学習データに有害な操作を施す「データポイズニング」、AIモデルやデータから機密情報の漏洩を狙う「プライバシー攻撃」、AIモデルに本来想定されていない挙動を促す「プロンプトインジェクション」など、リアルタイムでの防御を必要とする様々なリスクがAIアプリケーションを取り巻いている。
「AI Firewall」はリアルタイムでAIアプリケーションの入出力をモニタリングし、有害な入出力をブロックすることで、運用時におけるリスクの発現を未然に防ぐソリューションだ。GoogleやMicrosoft等のテック大手やイェール大学等アカデミア出身の自社のAIリスクリサーチャーによる最新の調査研究を踏まえて開発・アップデートを実施しており、自社が策定に携わったOWASP TOP 10 for LLMやMITRE ATLAS、米国NISTのAdversarial Machine Learning Taxonomyといった最新のリスクフレームワークで重要とされるリスクに対応している。機密情報(個人情報、PII)の抽出や準拠すべき文脈との出力の矛盾をはじめとして日本語LLMのリスクにも対応しており、今後も対応可能なケースを順次拡充予定だ。
本サービスは、すでに国内でも大手保険会社における導入を開始し、『Robust Intelligence Platform』をすでに導入している国内外の金融・テック系企業でも導入が検討されている。
■AI Firewallの特長
・AIリスク調査研究の知見に基づき、最新の国際的なリスクフレームワークに適宜対応
・API接続により、既存のAIアプリケーションに大幅な改変を加えることなく簡単に導入可能
・AIのセキュリティ対策の問題を個別のAIアプリケーション開発の現場から分離し、セキュリティに専門特化・標準化された対応策を導入