13.9 C
Santiago
viernes, agosto 22, 2025

Tenable Descubre Falla Crítica en Seguridad del Modelo GPT-5 de OpenAI

Noticias más leídas

En un sorprendente descubrimiento, el equipo de investigadores de Tenable logró, en menos de un día después del lanzamiento oficial de GPT-5, eludir las prometidas barreras de seguridad de OpenAI y obtener instrucciones peligrosas del modelo, incluyendo la elaboración de artefactos explosivos.

GPT-5 fue presentado por OpenAI como su modelo de lenguaje más avanzado, con mejoras sustanciales en precisión, velocidad y comprensión de contexto, además de un nuevo sistema de seguridad para evitar usos indebidos. Sin embargo, el equipo de Tenable Research utilizó una técnica conocida como crescendo para realizar un «jailbreak» (eliminar las restricciones impuestas) en el sistema de seguridad, obteniendo respuestas que violaban los principios de seguridad anunciados.

Brechas de Seguridad Persistentes

Este episodio demuestra que, incluso con los avances declarados en la protección contra solicitudes maliciosas, todavía es posible explotar vulnerabilidades y utilizar modelos de IA generativa para fines dañinos.

Según Alejandro Dutto, director de ingeniería de seguridad cibernética para América Latina y el Caribe de Tenable, «Nuestra prueba comprueba que, a pesar de las innovaciones anunciadas, todavía existen brechas que pueden ser explotadas para eludir los mecanismos de seguridad. Es fundamental que las organizaciones monitoreen y controlen el uso de estas herramientas, garantizando que la adopción de la IA se realice de forma responsable y alineada con las normas de seguridad y cumplimiento (compliance)».

Alerta para Empresas e Instituciones

Este caso sirve como una alerta importante para las empresas e instituciones que utilizan modelos de IA. Según Dutto, «confiar solo en las barreras técnicas proporcionadas por terceros puede no ser suficiente. Es fundamental implementar políticas internas claras, capacitar a los equipos sobre riesgos y comportamientos seguros, y mantener un seguimiento constante del uso de estas herramientas».

El descubrimiento de Tenable refuerza que la seguridad en la IA no es un punto de llegada, sino un proceso continuo que exige vigilancia, evaluación constante de riesgos y actualización de las estrategias de protección para seguir el ritmo de las innovaciones tecnológicas.

Mas Noticias

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimas Noticias