Anthropic、安全性懸念の高まりでAI規則を強化、武器開発を禁止
Anthropicは、Claude AIチャットボットの使用規則を更新し、危険な武器開発を禁止するなど安全対策を強化した。
最新の更新
AI安全性への懸念が高まる中、AnthropicはClaude AIチャットボットの使用ポリシーを更新した。
今回の更新では、サイバーセキュリティ規則の強化に加え、Claudeを利用して開発すべきでない最も危険な武器の種類が明確に示された。
ポリシー変更をまとめた公式投稿では武器規則の詳細は強調されていないが、旧ポリシーと新ポリシーを比較すると大きな違いが確認できる。
好きかもしれない
- トランプ政権の公共放送攻撃を受け、PBSが予算を21%削減
- ランボルギーニ、史上最速のプラグインハイブリッド車を発表:価格は350万ドル
- 科学論文の質が出版急増の中で疑問視される
- Gmailが「既読にする」とMaterial 3 Expressiveデザインを導入
- Windows 11でXboxコントローラーに新しいタスクビューショートカットが追加
- MetaのAIラボ、オープンソース「Behemoth」の放棄とクローズドAIモデルへの移行を検討
- Apple、ブラジル、チリ、ペルーでiCloudおよびApple Oneの価格を引き上げ
- Android 16のバッテリー健康ツール、旧型Pixelには非対応