AIツールが誤ったウェブアドレスを提供、ユーザーをリスクにさらす可能性:研究
ChatGPTなどのAIツールが誤ったウェブアドレスを提供することで、ユーザーをフィッシングやマルウェアのリスクにさらす可能性があると研究が明らかに。
最新の更新
新しい研究によると、ChatGPTやその他のAIツールが誤ったウェブアドレスを提供することで、ユーザーをフィッシング攻撃やマルウェアなどのリスクにさらしている可能性があることが明らかになりました。ネットクラフトの報告によれば、GPT-4.1を含む大規模言語モデル(LLM)が提供するログインリンクの3分の1(34%)が、尋ねられたブランドが所有していないもので、29%が未登録、非アクティブ、または駐車中のドメインを指し、5%が関連のないが正規のドメインを指していると報告されています。正しいブランド関連のドメインにリンクしていたのはわずか66%でした。AIはURL生成が得意ではなく、存在しないURLやフィッシングサイトにつながる可能性があるものも含まれています。攻撃者は現在、GoogleではなくLLM向けにサイトを最適化しており、開発者でさえ誤ったURLを意図せず使用しているケースがあるとされています。この状況は、AIツールの利用者がサイバー攻撃のリスクにさらされる可能性を高めています。
好きかもしれない
- Apple、今後のMacラインアップを詳細に報告、M5チップの更新も含まれる
- サムスン、3枚パネルのスマートフォンを開発中、7月に発表の可能性
- フランスのEdtech企業Didask、1000万ユーロを調達しAI学習プラットフォームを欧州で拡大
- Google Pixel 10は物理SIMを廃止、eSIM専用に移行
- X線が宇宙のフィラメントを検出、失われた物質に光を当てる
- Spotify、Apple MusicのAutoMixに対抗するプレイリストミックス機能を公開
- AppleのiOS 19ゲームアプリ: Appleファンにとってのブースト、Windowsの殺し屋ではない
- 100万個の騒音のある量子ビットでRSA暗号が破られる可能性、Googleの研究が示唆