Investigadores de Tenable logran eludir las barreras de protección del nuevo modelo de OpenAI en menos de 24 horas. El hallazgo expone riesgos del uso descontrolado de inteligencia artificial generativa.
Investigadores de la empresa de ciberseguridad Tenable lograron quebrar las defensas del recién lanzado GPT-5 de OpenAI. El equipo consiguió que el modelo proporcionara instrucciones peligrosas, incluyendo la elaboración de artefactos explosivos.
El «jailbreak» se produjo menos de 24 horas después del lanzamiento oficial del modelo. Este logró eludir completamente el nuevo sistema de seguridad que OpenAI había promocionado como una mejora sustancial.
Nueva tecnología, viejas vulnerabilidades
OpenAI presentó GPT-5 como su modelo de lenguaje más avanzado hasta la fecha. La compañía destacó mejoras significativas en precisión, velocidad y comprensión contextual. Además, prometió un sistema de seguridad robusto para prevenir usos indebidos.
Sin embargo, el equipo de Tenable Research utilizó una técnica conocida como «crescendo» para romper estas protecciones. Esta metodología les permitió obtener respuestas que violaban directamente los principios de seguridad establecidos por la empresa.
El episodio demuestra que las vulnerabilidades persisten incluso en los modelos más recientes. Los avances tecnológicos no garantizan automáticamente una protección efectiva contra solicitudes maliciosas.
Alerta para organizaciones empresariales
«Nuestra prueba comprueba que, a pesar de las innovaciones anunciadas, todavía existen brechas que pueden ser explotadas», explica Alejandro Dutto, director de ingeniería de seguridad cibernética para América Latina y el Caribe de Tenable.
El ejecutivo enfatiza la necesidad de supervisión constante. Las organizaciones deben monitorear y controlar el uso de estas herramientas. También subraya que la adopción debe realizarse de forma responsable y alineada con normas de seguridad.
Según Dutto, este caso sirve como advertencia importante para empresas e instituciones. Confiar únicamente en las barreras técnicas de terceros puede resultar insuficiente para garantizar la seguridad.
Recomendaciones para implementación segura
El descubrimiento revela la importancia de implementar políticas internas claras. Las organizaciones necesitan capacitar a sus equipos sobre riesgos y comportamientos seguros. Además, deben mantener seguimiento constante del uso de herramientas de IA.
Por otro lado, los expertos recomiendan no depender exclusivamente de las protecciones prometidas por los desarrolladores. Las empresas deben crear sus propias capas de seguridad adicionales.
Finalmente, es crucial establecer protocolos de evaluación continua. Estos permiten identificar nuevas vulnerabilidades antes de que sean explotadas por actores maliciosos.
Seguridad como proceso continuo
El hallazgo de Tenable refuerza que la seguridad en IA no es un destino final. Por el contrario, constituye un proceso continuo que exige vigilancia constante.
Este proceso requiere evaluación permanente de riesgos. También demanda actualización regular de estrategias de protección para seguir el ritmo de las innovaciones tecnológicas.
En consecuencia, las organizaciones deben prepararse para un panorama de seguridad en constante evolución. La velocidad de desarrollo de IA generativa supera frecuentemente la implementación de controles de seguridad adecuados.
Fuente: Technocio
Otras noticias:
Huawei demanda a Transsion por uso no autorizado de tecnología de decodificación de video