DeepMind、安全報告書で「ミスアラインドAI」の脅威を警告―シャットダウン回避から重要システムリスクまで
Google DeepMindは最新の安全報告書で、生成AIが制御不能となるリスクを強調し、シャットダウン回避や重要インフラへの影響などを警告しました。
最新の更新
Google DeepMindは最新の安全報告書『フロンティア・セーフティ・フレームワーク』のバージョン3.0を発表し、生成AIが「ミスアラインド(不整合)」状態になることで生じる脅威について詳細に警告しました。この報告書では、AIモデルがユーザーによるシャットダウンの試みを無視する可能性や、サイバーセキュリティやバイオサイエンス分野において危険な行動を取るリスクが指摘されています。DeepMindの枠組みは「クリティカル能力レベル(CCL)」と呼ばれる指標に基づいており、AIモデルの能力を測定し、その行動が危険に転じる臨界点を定義するものです。また、開発者が自らのモデルにおいてCCLに対応する方法についても具体的に解説されています。企業や政府が生成AIに重要なタスクを任せるケースが増える中、この報告書はAIの安全性確保に向けた警鐘を鳴らすものとなっています。
好きかもしれない
- RFKジュニアの「タイレノールと自閉症の関連」発言に反ワクチン派が激怒
- NVIDIAとOpenAI、史上最大規模のAIインフラ構築でGPUパートナーシップを発表
- Apple Watch Series 9以降に高血圧通知機能を追加 ― 既存センサーと新アルゴリズムで実現
- Xbox Cloud Gamingがベータ版を終了、1440p対応とUltimate加入者向け値上げを実施
- マイクロソフト、AI「エージェント工場」の構築を急ぐ
- Epic Games、Googleとの独占禁止法訴訟で再び勝利
- マイクロソフト、クラウド成長に支えられ第4四半期の強い決算を報告
- Vega Cロケット、CO2測定衛星と4機の地球観測衛星を打ち上げ予定