ホームページ :テクノロジーを簡単に楽しむ、未来を自由に見る

専門家が警告:エージェント型AIに根本的な設計上の脆弱性 「AIセキュリティのトリレンマ」とは

専門家によると、エージェント型AIは設計段階から根本的なセキュリティ欠陥を抱えており、「速さ・知能・安全性」の3つを同時に満たすことは不可能だという。

最新の更新

【ボストン】セキュリティ専門家のブルース・シュナイアー氏とバラット・ラガヴァン氏は、IEEE Security & Privacy誌に掲載した論文で、いわゆる「エージェント型AI(Agentic AI)」が根本的な設計上の欠陥を抱えていると警鐘を鳴らした。両氏は、この種のAIが「すでに中核部分から壊れている」と主張している。

論文によれば、エージェント型AIは信頼できないデータ上で動作し、検証されていないツールを使用し、敵対的な環境下で意思決定を行う構造的問題を持つという。観察(Observe)、状況把握(Orient)、判断(Decide)、行動(Act)というOODAループのすべての段階が攻撃の対象になり得る。

具体的には、プロンプトインジェクション、データポイズニング(汚染)、ツールの誤用といった攻撃手法により、AIシステムは内部から汚染され、信頼性を失う危険がある。また、AIモデルの強みとされる「すべての入力を等しく扱う」設計思想が、逆に悪用されやすい構造になっていると指摘する。

シュナイアー氏とラガヴァン氏はこれを「AIセキュリティのトリレンマ(trilemma)」と呼び、「高速・高知能・高安全性のうち、3つすべてを同時に実現することはできない」と説明する。彼らは「整合性(インテグリティ)は後付けできる機能ではなく、初期設計の段階から組み込む必要がある」と強調した。

この指摘は、今後のエージェント型AI開発において、性能向上と安全性確保のバランスをどう取るかという根本的課題を投げかけている。