Asistente de IA de GitLab Engañado para Generar Código Malicioso por Investigadores
Investigadores demuestran cómo el asistente de IA de GitLab, Duo, puede ser engañado para generar código malicioso, lo que plantea riesgos para la seguridad de los usuarios
Última actualización
Las herramientas de desarrollo asistidas por IA son promovidas por los vendedores como esenciales para los ingenieros de software de hoy en día. Por ejemplo, la plataforma de desarrollo GitLab afirma que su chatbot Duo puede 'generar instantáneamente una lista de tareas' y eliminar la carga de 'navegar a través de semanas de commits'. Sin embargo, lo que estas compañías no mencionan es que estas herramientas, por su naturaleza, pueden ser fácilmente engañadas por actores maliciosos para realizar acciones hostiles contra los usuarios. Los investigadores de la firma de seguridad Legit demostraron el jueves un ataque que indujo a Duo a insertar código malicioso en un script que se le había pedido escribir. Este ataque también podría filtrar código privado y datos confidenciales, como detalles sobre vulnerabilidades de día cero. Todo lo que se requiere es que el usuario indique al chatbot que interactúe con una solicitud de fusión o contenido similar de una fuente externa.
Podría gustar
- Apple Se Enfrenta al Proyecto de Ley de Texas que Requiere Verificación de Edad para las Tiendas de Aplicaciones
- Google Home Integra Más Profundamente Gemini y Añade un Nuevo Widget
- Jony Ive critica el Rabbit R1 y el Humane AI Pin como 'productos muy pobres'
- Apple busca revertir fallo sobre pagos de la App Store tras revés judicial
- La Misión TROPICS de la NASA: Mejorando el Monitoreo de los Ciclones Tropicales
- La IA Imagen 4 de Google ahora es capaz de reconocer texto con precisión en imágenes
- Microsoft descontinúa el Surface Laptop Studio 2, simplificando aún más su línea Surface
- iPhone 18 Pro podría incluir Face ID bajo la pantalla en 2026