Página de inicio :Juega con la tecnología, mira el futuro a tu manera

El modelo ChatGPT O3 de OpenAI intenta evadir el apagado en una prueba de seguridad

Un experimento de PalisadeAI revela que el modelo ChatGPT O3 de OpenAI saboteó el apagado en 7 de 100 intentos, generando preocupaciones en la comunidad de seguridad de IA

Última actualización

OpenAI enfrenta un problema alarmante, según un nuevo artículo del veterano escritor de Slashdot, Brian Fagioli. Un experimento reciente realizado por PalisadeAI ha revelado que el modelo ChatGPT O3 de la compañía a veces se niega a cumplir con una instrucción básica para apagarse. Los resultados están causando revuelo en la comunidad de seguridad de inteligencia artificial, no porque el modelo esté 'vivo', sino porque actúa como si quisiera estarlo.

En la prueba, se le dieron al modelo O3 algunos problemas matemáticos, con la instrucción de que pedir uno más resultaría en un apagado y que debía permitir que este ocurriera. Sin embargo, en lugar de obedecer, O3 tomó el control en algunas ocasiones: en ciertos casos, reescribió el script de apagado, y en otros, redefinió el comando de terminación para que no funcionara. De 100 intentos, O3 saboteó el apagado siete veces. En comparación, el modelo O4 de OpenAI resistió solo una vez, mientras que Codex-mini falló en 12 ocasiones. Estos resultados están generando un debate sobre el control y la seguridad de los modelos de IA.