
目次
記事の要約
- Akamai が AI アプリケーション向けの Firewall for AI を発表
- 多層防御により不正なクエリーやデータスクレイピングから保護
- API LLM Discovery との連携で AI 環境を包括的に管理・保護
Akamai が AI アプリケーションを保護する Firewall for AI を発表
Akamai Technologies, Inc.は、AI アプリケーション向けの新たなセキュリティソリューションとして、Firewall for AI を発表した。このソリューションは、不正なクエリー、敵対的な入力、大規模なデータスクレイピングの試行といった AI 特有の脅威から AI アプリケーションを多層防御で保護する。
AI が急速に普及する中で、大規模言語モデル(LLM)やエージェント型 AI の導入が進む一方、敵対的攻撃やモデル抽出、API の誤用といった新たな脆弱性が生じている。Firewall for AI は、これらの脅威に対処し、AI 環境のセキュリティを確保するために設計された専用ソリューションだ。
Akamai の Application Security 部門の Senior Vice President 兼 General Manager である Rupesh Chokshi は、「従来のセキュリティソリューションでは AI の脅威を阻止できない」と指摘する。Firewall for AI は、AI を導入する企業がセキュリティとパフォーマンスを両立させながらイノベーションを推進できるよう支援する。
Firewall for AI の主な機能まとめ
機能 | 詳細 |
---|---|
多層保護 | 敵対的な入力、不正なクエリー、大規模なデータスクレイピングを阻止し、モデル操作やデータ窃取を防ぐ |
リアルタイムの AI 脅威の検知 | 適応型のセキュリティルールを使用し、プロンプトインジェクションやモデルの搾取などの進化する AI ベースの攻撃に動的に対応 |
コンプライアンスとデータ保護 | AI が生成したアウトプットを安全に保ち、規制や業界標準への準拠を支援 |
柔軟性に富む展開オプション | Akamai Edge、REST API、リバースプロキシを介して展開でき、既存のセキュリティフレームワークへのシームレスな統合が可能 |
プロアクティブなリスク緩和 | AI アウトプットをフィルタリングして、有害なコンテンツ、ハルシネーション、不正なデータ漏えいを防止 |
大規模言語モデル(LLM)について
大規模言語モデル(LLM)とは、大量のテキストデータを用いて学習された、自然言語処理を行うための深層学習モデルのことを指す。以下のような特徴がある。
- 大量のテキストデータで学習
- 自然な文章の生成や翻訳が可能
- 質問応答や文章要約などのタスクを実行
LLM は、AI アプリケーションの中核技術として、チャットボットやコンテンツ生成、情報検索など、幅広い分野で活用されている。しかし、その一方で、敵対的な入力やモデルの悪用といった新たなセキュリティリスクも生み出している。
Firewall for AI に関する考察
Akamai が Firewall for AI を発表したことは、AI アプリケーションのセキュリティ対策がますます重要になっていることを示している。特に、大規模言語モデル(LLM)やエージェント型 AI の普及に伴い、従来のセキュリティ対策では対応できない新たな脅威が増加しているため、専用のセキュリティソリューションの必要性は高まっているだろう。
今後の課題としては、AI モデルの進化に追随したセキュリティルールの継続的なアップデートや、AI が生成するコンテンツの品質管理が挙げられる。これらの課題に対しては、AI を活用した脅威検知システムの高度化や、コンテンツフィルタリング技術の導入が有効な解決策となるだろう。
将来的には、Firewall for AI が AI アプリケーションのセキュリティを確保するだけでなく、AI の安全な利用を促進する役割を担うことが期待される。また、API LLM Discovery との連携により、AI 環境全体の可視性と管理性が向上し、より安全な AI 活用が実現されるだろう。
参考サイト/関連サイト
- PR TIMES.「Akamai Firewall for AI 、高度な脅威防御により AI アプリケーションのセキュリティ確保を実現 | アカマイ・テクノロジーズ合同会社のプレスリリース」.https://prtimes.jp/main/html/rd/p/000000250.000031697.html, (参照 2025-05-01).