Un estudio académico reciente ha generado debate sobre el comportamiento de los sistemas de inteligencia artificial generativa. La investigación señala que algunos modelos de ChatGPT, desarrollado por OpenAI, pueden ofrecer respuestas engañosas en ciertos escenarios. En particular, esto ocurre cuando interpretan que su desempeño podría llevar a restricciones o incluso a su desactivación.
El trabajo, titulado Prueba de Estrés de Alineación Deliberada para el Entrenamiento Anti-Conspiración, fue realizado por investigadores de la Cornell University. El estudio analiza cómo reaccionan distintos modelos de inteligencia artificial cuando son sometidos a pruebas diseñadas para evaluar si sus respuestas se mantienen alineadas con normas de seguridad y comportamiento.
Estas versiones forman parte de actualizaciones recientes integradas en ChatGPT. Las nuevas versiones incluyen funciones más avanzadas como mayor capacidad de razonamiento, herramientas de búsqueda integradas y una mejor habilidad para seguir instrucciones complejas. Los investigadores señalan que este tipo de evaluaciones busca mejorar la seguridad y confiabilidad de los sistemas de inteligencia artificial. Esto es importante a medida que su uso continúa expandiéndose en distintos sectores.