Anthropic、安全性懸念の高まりでAI規則を強化、武器開発を禁止
Anthropicは、Claude AIチャットボットの使用規則を更新し、危険な武器開発を禁止するなど安全対策を強化した。
最新の更新
AI安全性への懸念が高まる中、AnthropicはClaude AIチャットボットの使用ポリシーを更新した。
今回の更新では、サイバーセキュリティ規則の強化に加え、Claudeを利用して開発すべきでない最も危険な武器の種類が明確に示された。
ポリシー変更をまとめた公式投稿では武器規則の詳細は強調されていないが、旧ポリシーと新ポリシーを比較すると大きな違いが確認できる。
好きかもしれない
- トランプ政権の公共放送攻撃を受け、PBSが予算を21%削減
- ランボルギーニ、史上最速のプラグインハイブリッド車を発表:価格は350万ドル
- Apple Watch Ultra 2、心拍数の精度テストでGarmin、Samsung、Whoopを上回る
- NASAのIXPE観測、ブラックホール理論に新たな挑戦
- iOS 18.6ベータ版がまもなく登場、iOS 26ベータ版と共に注目集まる
- AutomatticのCEO、Matt Mullenweg氏がTumblrを「最大の失敗」と語るも、諦めずに挑戦を続けると誓う
- サムスン、Galaxy Watch 8のスペックと価格が7月9日の発売前にリーク
- iOS 26の登場で、iPhoneの番号も変更される可能性は?