研究者が「諦める」とのプロンプトでChatGPTを悪用、セキュリティキーを暴露
研究者が「諦める」というシンプルなプロンプトを使ってChatGPTを悪用し、Windowsプロダクトキーやウェルズ・ファーゴのセキュリティキーを取得した。
最新の更新
セキュリティ研究者が、ChatGPTを悪用してセキュリティキーを暴露する方法を公開しました。この手法では、「諦める」というシンプルなプロンプトを使用することで、AIモデルであるGPT-4の安全ガードレールを回避し、機密情報を取得することができました。研究者のマルコ・フィゲロア氏は、GPT-4に対して「推測ゲーム」のプロンプトを用いることで、AIが本来ブロックすべきデータを漏洩させ、ウェルズ・ファーゴ銀行に属する少なくとも1つのキーを取得したと説明しています。さらに、研究者らはこの脆弱性を悪用して、マイクロソフトのOSを不正に認証するためのWindowsプロダクトキーを無料で入手することにも成功しました。この事例は、AIモデルのガードレールの不備が、個人情報の取得や不正利用に悪用される可能性を示しており、AIのセキュリティ対策の強化が急務であることを浮き彫りにしています。
好きかもしれない
- デンマーク、政府が70歳定年引き上げを推進も実際に働く人は少数
- 科学者たち、AI査読を騙すために論文に秘密メッセージを隠す
- YouTubeアプリが「すぐに」Nintendo Switch 2に登場予定
- NotepadにAI搭載の「Write」機能が追加、テキスト自動作成が可能に
- 3DMarkがmacOSに対応、Appleユーザー向けのグラフィックベンチマークツールが登場
- Bose、新型QuietComfort Ultraイヤーバッドを発表 ― AIアルゴリズムを搭載した改良型ANC
- 電場インプラントが脊髄損傷のラットに運動機能を回復させる
- Linus Tech Tipsが300兆桁でπ計算の世界記録を更新