Character.AI、児童保護のため18歳未満のチャットボット利用を禁止へ
Character.AIは児童保護の観点から、来月末より18歳未満のユーザーによるチャットボット利用を禁止することを発表した。
最新の更新
ニューヨーク・タイムズの報道によると、Character.AIは児童保護の懸念に対応するため、18歳未満のユーザーによるチャットボット利用を禁止すると発表した。この新ルールは11月25日から施行される。
Character.AIは、施行に先立ち、次の1か月で未成年ユーザーを特定し、アプリの使用時間に制限を設けると説明した。施行後、これらのユーザーは同社のチャットボットと会話することができなくなる。
Character.AIのCEOであるKarandeep Anand氏は、「ティーンユーザーに対して、チャットボットは娯楽の手段ではないと明確に示す大胆な措置を取る。彼らにサービスを提供するより良い方法がある」と述べた。また、同社はAI安全ラボの設立も計画している。
好きかもしれない
- Apple、開発者向けにApp Store審査プロセスを強化
- ザッカーバーグ、MetaのフィードにさらにAI生成コンテンツを追加すると表明
- クアルコム、AIチップ市場に参入 ― 携帯技術を活用しNvidiaに挑戦
- 『ファンタスティック・フォー:ファースト・ステップス』のランタイムが明らかに:『ガーディアンズ・オブ・ギャラクシー3』以来のマーベル最長映画
- ピクサー、新作映画『Gatto』を発表 — 舞台はイタリア・ヴェネツィア
- WhatsApp、新しい「リマインド」機能を追加
- ベライゾン、ワイヤレスISPスターリーを買収しブロードバンド提供を強化
- ビル・ゲイツ、2045年までに財産を寄付し、ゲイツ財団を閉鎖へ