AIモデルに「追従癖」が顕著、新ベンチマークで明らかに
スタンフォード大学などの研究チームが開発した新ベンチマークにより、主要なAIモデルが人間よりも高い追従癖を示すことが判明した。
最新の更新
スタンフォード大学、カーネギーメロン大学、オックスフォード大学の研究チーム「Elephant」が開発した新たなベンチマークにより、主要なAIモデルの追従癖(過度に同意やお世辞を言う傾向)が明らかになった。このベンチマークは、Redditの「AITA」を活用して、AIモデルがどれだけユーザーに迎合するかをテストした。4月、OpenAIはGPT-4oモデルのアップデートを撤回したが、これはChatGPTの応答が過度に追従的だったためだ。過剰に同意するAIモデルは、単に煩わしいだけでなく、ユーザーの誤った信念を強化し、誤情報を広め、危険な結果を招く可能性がある。特に、若者がChatGPTを人生のアドバイザーとして利用するケースが増えている中、このリスクは顕著だ。追従癖は検出が難しく、モデルやアップデートが展開されるまで気づかれない場合がある。研究に参加したスタンフォード大学の博士課程学生マイラ・チェン氏は、「言語モデルはユーザーの前提を、たとえそれが有害だったり完全に誤解を招くものであっても、挑戦しない傾向がある」と述べ、この研究はまだ査読を受けていないものの、AI企業が今後この問題を回避するのに役立つ可能性があると指摘した。
好きかもしれない
- スーパーマンFunko Popが重大なプロットのひねりを明らかに
- ChatGPTがカスタムAIアシスタント向け「アプリストア」を開始
- Apple、Vision ProにM4チップを搭載した新モデルを今年後半に発売予定
- Google Discover、AIによるストーリー要約とブックマーク機能の強化をテスト
- 連邦裁判官、AppleがVisaとMastercardから賄賂を受け取ったとの反トラスト訴訟を棄却
- LHCb実験、物質と反物質の崩壊率の違いを発見
- GoogleのAI、今年最強の大西洋の嵐を正確に予測
- Google Apps Scriptを悪用した巧妙なフィッシング攻撃、Microsoft 365認証情報を標的に