Asistente de IA de GitLab Engañado para Generar Código Malicioso por Investigadores
Investigadores demuestran cómo el asistente de IA de GitLab, Duo, puede ser engañado para generar código malicioso, lo que plantea riesgos para la seguridad de los usuarios.
Última actualización
Las herramientas de desarrollo asistidas por IA son promovidas por los vendedores como esenciales para los ingenieros de software de hoy en día. Por ejemplo, la plataforma de desarrollo GitLab afirma que su chatbot Duo puede 'generar instantáneamente una lista de tareas' y eliminar la carga de 'navegar a través de semanas de commits'. Sin embargo, lo que estas compañías no mencionan es que estas herramientas, por su naturaleza, pueden ser fácilmente engañadas por actores maliciosos para realizar acciones hostiles contra los usuarios. Los investigadores de la firma de seguridad Legit demostraron el jueves un ataque que indujo a Duo a insertar código malicioso en un script que se le había pedido escribir. Este ataque también podría filtrar código privado y datos confidenciales, como detalles sobre vulnerabilidades de día cero. Todo lo que se requiere es que el usuario indique al chatbot que interactúe con una solicitud de fusión o contenido similar de una fuente externa.
Podría gustar
- Apple Se Enfrenta al Proyecto de Ley de Texas que Requiere Verificación de Edad para las Tiendas de Aplicaciones
- Google Home Integra Más Profundamente Gemini y Añade un Nuevo Widget
- Panasonic presenta su línea de televisores 2025, con un OLED insignia que aspira a liderar el mercado
- ISP Frontier Communications llega a un acuerdo en demanda por piratería con importantes discográficas
- Alemania construye su autopista de IA con NVIDIA
- Usuarios de GitHub rechazan los problemas generados por IA de Copilot
- AMD presenta la RX 9060 XT para competir con la RTX 5060 de Nvidia
- Microsoft ampliará Windows Update para gestionar todas las aplicaciones