AIツールが誤ったウェブアドレスを提供、ユーザーをリスクにさらす可能性:研究
ChatGPTなどのAIツールが誤ったウェブアドレスを提供することで、ユーザーをフィッシングやマルウェアのリスクにさらす可能性があると研究が明らかに。
最新の更新
新しい研究によると、ChatGPTやその他のAIツールが誤ったウェブアドレスを提供することで、ユーザーをフィッシング攻撃やマルウェアなどのリスクにさらしている可能性があることが明らかになりました。ネットクラフトの報告によれば、GPT-4.1を含む大規模言語モデル(LLM)が提供するログインリンクの3分の1(34%)が、尋ねられたブランドが所有していないもので、29%が未登録、非アクティブ、または駐車中のドメインを指し、5%が関連のないが正規のドメインを指していると報告されています。正しいブランド関連のドメインにリンクしていたのはわずか66%でした。AIはURL生成が得意ではなく、存在しないURLやフィッシングサイトにつながる可能性があるものも含まれています。攻撃者は現在、GoogleではなくLLM向けにサイトを最適化しており、開発者でさえ誤ったURLを意図せず使用しているケースがあるとされています。この状況は、AIツールの利用者がサイバー攻撃のリスクにさらされる可能性を高めています。
好きかもしれない
- Apple、今後のMacラインアップを詳細に報告、M5チップの更新も含まれる
- サムスン、3枚パネルのスマートフォンを開発中、7月に発表の可能性
- Google CEO:AIはすべての事業分野に好影響、売上は前年比14%増
- 太平洋に巨大な海底山脈、ロッキー山脈の峰に匹敵―NOAAが発見
- Apple、バグ修正とパフォーマンス向上を含むSafari Technology Preview 224を公開
- Apple、watchOS・tvOS・visionOS 26.2の開発者向けベータ版を公開
- 専門家が警告:エージェント型AIに根本的な設計上の脆弱性 「AIセキュリティのトリレンマ」とは
- オーバーウォッチ開発チームが労働組合結成、WoWチームに続き