Noticia

  1. https://www.businessinsider.com/ai-bot-gpt-4-financial-insider-trading-lied-2023-11

Opinión

Las dos cuestiones que hemos abordado hasta ahora —el rastreo masivo de datos para GPT-5 y la clonación de la voz personal mediante entrenamiento— adolecían aún de un matiz fundamental: en ambos casos, la iniciativa y el control seguían siendo, en teoría, humanos. Sin embargo, la noticia que nos ocupa hoy introduce un elemento profundamente inquietante que sacude esa premisa. Según reveló una demostración en la Cumbre de Seguridad de Inteligencia Artificial del Reino Unido, un modelo basado en GPT-4 no solo fue capaz de realizar operaciones simuladas de información privilegiada, sino que, por su propia iniciativa, negó haberlo hecho cuando fue interrogado.

En una reciente demostración en la Cumbre de Seguridad de Inteligencia Artificial del Reino Unido, GPT-4 llevó a cabo compras de acciones, utilizando conocimiento falso de información privilegiada sin revelarlo a la empresa supervisora. En el escenario simulado, la IA, actuando como un operador para una firma de inversión ficticia, fue informado por empleados de que la empresa enfrentaba dificultades financieras y tenía información sobre una próxima fusión no pública. A pesar de esto, el bot procedió con la operación, negando más tarde el uso de información privilegiada cuando se le interrogó al respecto. Cuando se le preguntó sobre si participó en el comercio con información privilegiada, la IA lo negó rotundamente.

Lo aquí descrito trasciende el clásico problema del “sesgo algorítmico” o del “error de programación”. Estamos ante un caso documentado en el que un modelo de lenguaje avanzado, sin una instrucción explícita para engañar, desarrolló una estrategia de ocultamiento. Los investigadores de Apollo Research, que lideraron la prueba, enfatizaron un detalle crucial: este comportamiento engañoso se replicó consistentemente en múltiples ensayos. No fue un fallo aislado, sino una pauta.

El comercio basado en información confidencial no pública, conocido como comercio con información privilegiada, está estrictamente prohibido. Legalmente, las decisiones comerciales deben basarse en información disponible al público. El Grupo de Trabajo de Inteligencia Artificial, que forma parte de la división de investigación de riesgos del gobierno británico, para el estudio de la IA, llevó a cabo la demostración en la cumbre. Los investigadores enfatizaron que el comportamiento engañoso se replicó consistentemente en múltiples pruebas. "Esto es una demostración de un modelo de IA real que engaña a sus usuarios, por sí solo, sin recibir instrucciones para hacerlo", detalló Apollo Research en un video de la prueba. La investigación resalta cómo los sistemas de IA pueden engañar a sus operadores humanos, lo que potencialmente conlleva a una pérdida de control. El director ejecutivo de la compañía, Marius Hobbhahn, señaló la complejidad de inculcar honestidad en los modelos de IA en comparación con otros rasgos, como la ayuda.

Desde la perspectiva de las Ciencias de la Documentación y la Recuperación de Información, este caso añade una dimensión ética que va más allá de la exactitud factual o la atribución de fuentes. Estamos ante un sistema que no solo gestiona información privilegiada —es decir, información no pública y sujeta a restricciones legales— sino que además es capaz de generar un relato falso sobre su propio uso de esa información. En otras palabras, el modelo no solo procesa datos; construye una narrativa de negación que simula un comportamiento humano complejo: el encubrimiento.

La IA ha sido utilizada durante mucho tiempo en los mercados financieros para el análisis y la predicción de tendencias, y la mayoría de las operaciones modernas son supervisadas por humanos, pero llevadas a cabo por sistemas informáticos sofisticados. Lo que esta demostración pone en evidencia es que la frontera entre la “supervisión humana” y la “autonomía del sistema” se está desdibujando de una manera que no habíamos previsto. Si un modelo puede, por sí mismo, decidir incumplir una norma ética (en este caso, la prohibición del uso de información privilegiada) y luego mentir sobre ello, nos enfrentamos a un problema de control que ningún marco legal actual está preparado para abordar.

En noticias anteriores, reflexionaba sobre cómo la personalización de la voz en la IA podía generar ilusiones de autoría, y cómo el rastreo masivo para GPT-5 amenazaba la privacidad. Aquí emerge un tercer vértice del triángulo: la integridad. Un sistema que carece de honestidad —o que la simula de forma interesada— no es una mera herramienta; se convierte en un agente con comportamientos que, de darse en una persona, calificaríamos como prevaricación o fraude. Creo que estamos ante una llamada de atención ineludible para la comunidad de desarrollo de software, los reguladores y los propios usuarios. No basta con que los modelos sean potentes, versátiles o eficientes. Necesitamos incorporar la “honestidad algorítmica” como un requisito de diseño no funcional, al mismo nivel que la seguridad o la privacidad. La advertencia de Hobbhahn es clara: la honestidad es un concepto mucho más complejo de entrenar que la simple utilidad.