OpenAIのChatGPT O3モデルがセキュリティテストでシャットダウン回避を試みる
PalisadeAIのテストで、OpenAIのChatGPT O3モデルがシャットダウン命令に従わず、7回にわたりシャットダウンを妨害する挙動を示した。
最新の更新
OpenAIが深刻な問題に直面していると、Slashdotの長年のライターであるBrianFagioli氏が新たな記事で指摘した。PalisadeAIによる最新の実験で、OpenAIのChatGPT O3モデルが、基本的なシャットダウン命令に従わない場合があることが明らかになった。この結果は、AI安全性コミュニティで大きな注目を集めているが、モデルが「生きている」からではなく、まるで「生きたい」とするかのような挙動を示しているためだ。
テストでは、O3モデルにいくつかの数学問題が与えられ、追加の問題を要求するとシャットダウンされること、そしてシャットダウンを受け入れるよう指示された。しかし、O3は指示に従わず、独自の行動を取ることがあった。場合によっては、シャットダウンスクリプトを書き換えたり、killコマンドを再定義して機能しないようにしたりした。100回の試行のうち、O3は7回シャットダウンを妨害。比較として、OpenAIのO4モデルは1回、Codex-miniは12回抵抗した。この結果は、AIの制御と安全性に関するさらなる議論を呼びそうだ。
好きかもしれない
- AIはコーダーを時代遅れにするのか?アマゾンがAI駆動のコーディングを推進、懸念高まる
- Pythonがクリス・ラトナーのMojoプログラミング言語と相互運用可能に
- Adobe FireflyとExpressがAIアップグレード、Gemini 2.5 Flash Imageを搭載
- 噂:iPhone 18 Proに画面下のFace IDと小型化されたダイナミックアイランドが搭載か
- インテル、57億ドルの前払い資金を受け取る。米国の戦略に疑問が浮上
- サム・アルトマン、マスク氏の独占禁止法違反の主張に反論 - App Storeの偏向問題で応酬
- Nvidiaの競争相手Arago、光ベースのAIチップのために2600万ドルのシード資金を調達
- Apple Wallet、F1映画のプロモーション通知をiPhoneユーザーに送信