Anthropic、ユーザーチャットデータでAIモデルをトレーニング開始、ユーザーの選択によるオプトアウトが必要
Anthropicは、ユーザーがオプトアウトしない限り、ユーザーチャットデータを使用してAIモデルをトレーニングすることを発表。データの保存期間は最大5年間。
最新の更新
Anthropicは、ユーザーチャットデータを使用してAIモデルをトレーニングすることを発表しました。新しいチャットのトランスクリプトやコーディングセッションを含むデータは、ユーザーがオプトアウトしない限り、AIモデルの学習に利用されることになります。さらに、同社はデータ保存期間を最大5年間に延長する方針も示しており、これもユーザーがオプトアウトしない限り適用されます。すべてのユーザーは9月28日までにオプトアウトするかどうかを選択する必要があり、オプトアウトしない場合、同社は即座にユーザーデータをAIモデルのトレーニングに使用し、5年間保存することになります。Anthropicはこの新しい方針を木曜日に公開したブログポストで発表しました。
好きかもしれない
- NASA、2030年までに月面に原子炉設置を目指す
- NASAのデータが示す火星内部の不規則な構造、古代の衝突の痕跡を示唆
- Microsoft、Microsoft 365ビジネスユーザー向けに無料のCopilot Chatを提供開始
- カリフォルニア州、入居者がISP独占契約から脱退可能にする法案を可決
- Google Discover、AIによるストーリー要約とブックマーク機能の強化をテスト
- 英国規制当局、AppleとGoogleのモバイル支配を標的に
- ドイツのAIスタートアップCognigy、米国企業NiCEに10億ドル近い取引で買収
- Apple、AirPodsファームウェアアップデートのパブリックベータ版を公開予定