OpenAI、セレブのディープフェイク懸念を受けSoraの安全対策を強化
OpenAIは、セレブの肖像や声を無断で使用したディープフェイクへの懸念を受け、AI動画アプリSoraの保護機能を強化した。
最新の更新
OpenAIは、AI動画アプリ「Sora」において、ユーザーがセレブの肖像や声を無断で使用した動画を作成できないよう、安全対策を強化しました。これは、俳優のBryan CranstonやSAG-AFTRA、United Talent Agency、Creative Artists Agency、Association of Talent Agentsとの共同声明で発表されたもので、Sora 2およびSoraアプリで生成されるコンテンツに対する声と肖像の保護を確実にするための「生産的な協力」を目指すとしています。
Cranston氏は、自身の肖像を無断で使用したディープフェイクが作成されることに懸念を示しました。また、Robin Williams、George Carlin、Martin Luther King Jr.の家族も、Soraアプリに関してOpenAIに苦情を申し立てています。
今回の措置により、Soraユーザーはセレブの肖像や声を使った動画を作成できなくなり、AI動画の倫理的利用とセレブの権利保護の両立が図られることになります。
好きかもしれない
- 裁判所、NSOグループによるWhatsAppユーザーへのPegasusスパイウェア使用を永久禁止
- フロリダ州、児童保護問題でRobloxに刑事召喚状を発行
- BBC、米国での有料壁紙導入を発表
- Microsoft Copilot Studio、エージェントにコンピューター利用機能を追加
- iPhone 18のリーク情報:RAMが50%増加、AI駆動のアップグレードか
- Apple、WWDCで新デザインの電話、Safari、カメラアプリを発表か
- マイクロソフトの人員削減、Forza Motorsport開発者Turn 10 Studiosも影響を受ける
- Apple、iOS 26の2つの新機能を発表延期