Character.AI、児童保護のため18歳未満のチャットボット利用を禁止へ
Character.AIは児童保護の観点から、来月末より18歳未満のユーザーによるチャットボット利用を禁止することを発表した。
最新の更新
ニューヨーク・タイムズの報道によると、Character.AIは児童保護の懸念に対応するため、18歳未満のユーザーによるチャットボット利用を禁止すると発表した。この新ルールは11月25日から施行される。
Character.AIは、施行に先立ち、次の1か月で未成年ユーザーを特定し、アプリの使用時間に制限を設けると説明した。施行後、これらのユーザーは同社のチャットボットと会話することができなくなる。
Character.AIのCEOであるKarandeep Anand氏は、「ティーンユーザーに対して、チャットボットは娯楽の手段ではないと明確に示す大胆な措置を取る。彼らにサービスを提供するより良い方法がある」と述べた。また、同社はAI安全ラボの設立も計画している。
好きかもしれない
- Apple、開発者向けにApp Store審査プロセスを強化
- ザッカーバーグ、MetaのフィードにさらにAI生成コンテンツを追加すると表明
- NotebookLM、The EconomistやThe Atlanticなどからのコンテンツを提供する「Featured Notebooks」を発表
- 新調査で判明:Microsoft Copilot、1組織あたり数百万の機密データにアクセス
- エプソン、新しいGoogle TV搭載プロジェクターでBoseサウンド時代を開始
- iOS 26アップデート、ノートとリマインダーに「リキッドガラス」デザインを導入
- iOS 26、iPhoneのカスタム着信音設定が簡単に
- AppleのiPad Pro、最薄のベゼルを搭載し、エッジ・トゥ・エッジディスプレイに近づく可能性