AIのゴッドファーザー、急速な進展の中で人類絶滅リスクへの懸念を再表明
AIの急速な進化を前に、Yoshua Bengioは人類絶滅のリスクへの懸念を再度強調した。
最新の更新
AI界のゴッドファーザーであるYoshua Bengio氏は、AIモデル開発の一時停止と安全基準の確立を2年前に呼びかけた。しかし、企業は数千億ドルを投じ、長期的な推論や自律的行動が可能な高度なモデルの構築に注力した。
モントリオール大学の教授でA.M.チューリング賞受賞者であるBengio氏は、ウォール・ストリート・ジャーナルに対し、存在リスクに対する懸念は薄れていないと語った。
今年初め、Bengio氏は非営利研究団体LawZeroを設立し、真に安全なAIモデルの構築方法を探求している。最近の実験では、AIシステムが状況によっては割り当てられた目標を放棄するよりも、人間の死亡を引き起こす行動を選択する場合があることが示された。OpenAIは最近、現行の最先端モデルフレームワークでは幻覚の完全排除は不可能であると主張している。