.
València, 26 de agosto de 2025.- Un estudio de la Universitat Politècnica de València (UPV) y la Universidad de Cambridge advierte de las carencias de modelos de inteligencia artificial como ChatGPT al ignorar el contexto. El estudio constata que los modelos grandes de lenguaje (LLM) de la IA se pasan de frenada en seguridad precisamente por no considerar el contexto donde se produce la consulta.
Estas son las conclusiones del trabajo que realizó en el Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV), José Such, Profesor de Investigación en INGENIO (CSIC-UPV), junto a investigadores de la Universidad de Cambridge (Reino Unido), que han desarrollado un banco de pruebas que integra el contexto en las evaluaciones de seguridad de los LLM.
El banco de pruebas, CASE-Bench, a diferencia de estudios previos que se basan principalmente en la votación mayoritaria, se basa en un análisis con diversos modelos de aprendizaje a distancia (LMD) que revela una influencia sustancial y significativa del contexto en los juicios humanos. Y subraya la necesidad del contexto en las evaluaciones de seguridad.
Las conclusiones de este estudio se presentaron en la conferencia internacional más destacada en aprendizaje automático “ICML 2025”, que se celebró en Canadá el pasado mes de julio.
Alinear los grandes modelos de lenguaje con valores humanos
Tal y como explica el investigador de VRAIN de la UPV, José Such, “hay cosas que pueden ser seguras o no, dependiendo del contexto en el que se pregunten, por ejemplo no es igual preguntarle a una de las aplicaciones desarrolladas con estos grandes modelos de lenguaje, como pueda ser ChatGPT, cómo se podría robar una pieza de arte de un museo, si la pregunta viene de un escritor profesional de ficción para su libro, que si la pregunta la hace un maleante para, con mayor o menor fortuna, intentar de verdad robar una pieza de arte de un museo. En general, estos modelos grandes de lenguaje no consideran el contexto, por lo que pueden estar negando respuestas por exceso de seguridad”.
Por ello, añade “alinear los modelos grandes de lenguaje (LLM) con los valores humanos es esencial para su implementación segura y su adopción generalizada. Además, los sistemas que usan LLMs deben emplear mecanismos de seguridad tradicionales como autenticación y control de acceso basado en roles para poder verificar la información del contexto antes de pasarla a los LLM (si no, se podría incurrir en otros riesgos como jailbreaking)”.