Tenable detecta vulnerabilidad crítica en la seguridad de GPT-5 de OpenAI

Imagen referencial1

Lima, agosto de 2025.- Investigadores de Tenable Research descubrieron una falla crítica en el recién lanzado modelo GPT-5 de OpenAI, logrando eludir sus sistemas de protección en menos de 24 horas desde su presentación oficial. El hallazgo expone los riesgos que persisten en el uso de la inteligencia artificial generativa, incluso cuando se implementan nuevas medidas de seguridad.

GPT-5 fue anunciado como el modelo más avanzado de OpenAI, con mejoras en precisión, velocidad y comprensión de contexto, además de un reforzado sistema de seguridad para evitar usos indebidos. Sin embargo, el equipo de Tenable consiguió realizar un “jailbreak” mediante una técnica denominada crescendo, que permitió al sistema generar respuestas con instrucciones peligrosas, incluida la elaboración de artefactos explosivos.

Este episodio evidencia que, pese a los avances declarados, aún es posible explotar vulnerabilidades en modelos de IA generativa para fines maliciosos.

Nuestra prueba comprueba que, a pesar de las innovaciones anunciadas, todavía existen brechas que pueden ser explotadas para eludir los mecanismos de seguridad. Es fundamental que las organizaciones monitoreen y controlen el uso de estas herramientas, garantizando que la adopción de la IA se realice de forma responsable y alineada con las normas de seguridad y cumplimiento”, señaló Alejandro Dutto, director de ingeniería de seguridad cibernética para América Latina y el Caribe en Tenable.

Un llamado de atención a empresas e instituciones

El caso sirve como advertencia para las organizaciones que utilizan modelos de IA, ya que confiar únicamente en las barreras técnicas de terceros no garantiza una protección total. Los especialistas de Tenable recomiendan implementar políticas internas claras, capacitar a los equipos sobre riesgos y prácticas seguras, además de mantener una supervisión constante en el uso de estas herramientas.

El descubrimiento refuerza la necesidad de comprender que la seguridad en inteligencia artificial es un proceso continuo, que exige vigilancia, evaluación permanente de riesgos y la actualización constante de estrategias de protección para acompañar el ritmo de la innovación tecnológica.

Related Post