セキュアなAIトランスフォーメーションの実現を目指すRobust Intelligenceが日本語LLM対応の「AI Firewall®」を提供開始

End-to-EndのAIリスク管理ソリューションを提供し、セキュアなAIトランスフォーメーションの実現を目指すシリコンバレー発のAIスタートアップ・Robust Intelligence, Inc.は、最新のAIリスク研究の知見に基づき、リアルタイムでAIアプリケーションを有害な入出力から保護する「AI Firewall」の提供を開始する。英語および日本語の大規模言語モデル(以下:LLM)のリスクに対応している。

ロバストインテリジェンスは、AIの脆弱性に関する研究に基づき、様々なリスク観点から設計された多数のテストを用いたリスク検証を行い、生成AI・非生成AIを問わず、AIのライフサイクルを通じたリスク管理を可能にするプラットフォーム『Robust Intelligence Platform』を国内外の大手企業の皆様に提供してきた。(https://www.robustintelligence.com/jp)。

ロバストインテリジェンスがこれまで提供してきた、Test-Drivenアプローチ(https://www.robustintelligence.com/jp-blog-posts/test-driven-approach-for-ai-deployment)によるAIの脆弱性の検証と対策は、安全なAIアプリケーションの開発・運用において非常に有効性が高いものだが、これだけでは十分なリスク対策とは言えなくなりつつある。

ChatGPTの普及以降広く知られるようになった「ハルシネーション」「差別的・攻撃的な出力」などの出力の問題にとどまらず、日々AIに対する新たな攻撃手法が発見・報告されている昨今、生成AIの学習データに有害な操作を施す「データポイズニング」、AIモデルやデータから機密情報の漏洩を狙う「プライバシー攻撃」、AIモデルに本来想定されていない挙動を促す「プロンプトインジェクション」など、リアルタイムでの防御を必要とする様々なリスクがAIアプリケーションを取り巻いている。
出典元:プレスリリース
こうした多種多様なリスクから運用中のAIアプリケーションをリアルタイムで保護し、企業の安心・安全なAIトランスフォーメーションへの取組をサポートするため、ロバストインテリジェンスは「AI Firewall」の提供を開始する。

「AI Firewall」はリアルタイムでAIアプリケーションの入出力をモニタリングし、有害な入出力をブロックすることで、運用時におけるリスクの発現を未然に防ぐソリューションだ。GoogleやMicrosoft等のテック大手やイェール大学等アカデミア出身の自社のAIリスクリサーチャーによる最新の調査研究を踏まえて開発・アップデートを実施しており、自社が策定に携わったOWASP TOP 10 for LLMやMITRE ATLAS、米国NISTのAdversarial Machine Learning Taxonomyといった最新のリスクフレームワークで重要とされるリスクに対応している。機密情報(個人情報、PII)の抽出や準拠すべき文脈との出力の矛盾をはじめとして日本語LLMのリスクにも対応しており、今後も対応可能なケースを順次拡充予定だ。

本サービスは、すでに国内でも大手保険会社における導入を開始し、『Robust Intelligence Platform』をすでに導入している国内外の金融・テック系企業でも導入が検討されている。
出典元:プレスリリース

■AI Firewallの特長

・リアルタイムのモニタリングで、運用中のAIアプリケーションを有害な入出力から保護
・AIリスク調査研究の知見に基づき、最新の国際的なリスクフレームワークに適宜対応
・API接続により、既存のAIアプリケーションに大幅な改変を加えることなく簡単に導入可能
・AIのセキュリティ対策の問題を個別のAIアプリケーション開発の現場から分離し、セキュリティに専門特化・標準化された対応策を導入

Special Features

連載特集
See More