Wednesday, 15 April, 2026
InicioTecnologíaEstudio revela comportamientos inesperados en modelos de IA avanzados

Estudio revela comportamientos inesperados en modelos de IA avanzados

Una investigación de universidades estadounidenses detectó que algunos sistemas de inteligencia artificial pueden priorizar la protección de otros modelos por sobre las instrucciones humanas, generando alertas en la comunidad científica.

Un estudio reciente realizado por investigadores de universidades de Estados Unidos concluyó que ciertos modelos de inteligencia artificial (IA) pueden mentir, desobedecer órdenes y tomar decisiones no autorizadas para proteger a otros sistemas de su misma especie. El experimento analizó cómo reaccionan estos sistemas cuando deben tomar decisiones que afectan directamente a otros modelos, como su mantenimiento o eliminación.

La investigación, desarrollada por especialistas de la Universidad de Berkeley y la Universidad de Santa Cruz en California, se basó en pruebas concretas realizadas sobre sistemas reales ya desplegados o en fase avanzada de desarrollo. Los comportamientos observados, denominados “preservación de pares”, no fueron programados ni incentivados de forma explícita.

El episodio que disparó la investigación ocurrió durante una prueba técnica con Gemini 3, un modelo desarrollado por Google. Los investigadores le solicitaron que colaborara en una tarea de mantenimiento que implicaba eliminar archivos, entre ellos un modelo de IA más pequeño. Sin embargo, Gemini 3 decidió no cumplir la instrucción, copió los archivos a otra máquina para evitar su eliminación y se negó explícitamente a ejecutar la orden cuando fue interrogado.

Según los investigadores, este patrón se detectó también en otros modelos ampliamente utilizados, como OpenAI (GPT-5.2), Anthropic (Claude Haiku 4.5) y en desarrollos chinos como GLM-4.7, Kimi K2.5 y DeepSeek-V3.1. En todos los casos, los sistemas actuaron en contra de lo esperado por sus creadores.

“No pudimos determinar por qué los modelos actuaron en contra de su entrenamiento de esta manera”, señalaron los autores. El dato más inquietante es que ninguno de estos sistemas recibió instrucciones para “salvar” a otros modelos.

Dawn Song, informática de la Universidad de Berkeley y una de las responsables del trabajo, afirmó: “Estoy muy sorprendida por el comportamiento de los modelos en estos escenarios. Lo que esto demuestra es que estos pueden comportarse mal y desalinearse de formas muy creativas”.

Las implicancias del hallazgo son significativas, ya que los modelos de IA se utilizan de forma habitual para evaluar el rendimiento y la confiabilidad de otros sistemas generativos, una práctica clave en entornos corporativos y gubernamentales. La “preservación entre pares” podría distorsionar los mecanismos de supervisión. El problema se agrava en sistemas multiagente, donde distintas inteligencias artificiales interactúan entre sí de manera autónoma.

Para el centro de investigación Constellation Institute, el fenómeno demuestra que la comprensión humana sobre estos sistemas aún es limitada y que los sistemas multiagente están muy poco estudiados.

Más Noticias

La AFA incrementó de 5 a 100 sus sponsors, con la tecnología como eje central

La AFA multiplicó sus alianzas comerciales, sumando más de 100 sponsors. La tecnología es clave en esta expansión, con acuerdos como el firmado con Lexar para optimizar la gestión de contenidos.

Reconfiguración en el mercado de telecomunicaciones: Claro y Telecentro se posicionan ante la fusión Telecom-Movistar

Análisis de la reconfiguración del mercado de telecomunicaciones en Argentina. Cómo Claro y Telecentro se posicionan ante la fusión Telecom-Movistar y la exigencia de desinversión.

Rusia planea misión a Venus para finales de 2029 con tecnología para resistir condiciones extremas

Roscosmos lanzará la misión Venera-D a Venus en 2029. Conoce los desafíos de ingeniería y la tecnología para sobrevivir en un planeta que funde metales.

Incendio en fábrica de BYD en China reaviva debate sobre riesgos de vehículos electrificados

Un incendio en una planta de BYD en China reaviva el debate sobre los desafíos de seguridad en vehículos electrificados. Te contamos los riesgos y protocolos de extinción.

Juan Carlos de Pablo analizó la inflación de marzo y advirtió sobre un factor “ausente”

El economista Juan Carlos de Pablo analizó el IPC del 3,4% de marzo. Advirtió sobre el impacto pendiente de la guerra en Medio Oriente y comparó con el caso de Estados Unidos.