Duplicar capas de un LLM mejora razonamiento sin entrenamiento

Hoy 19 de marzo de 2026, un investigador independiente ha revelado un descubrimiento sorprendente en el campo de la inteligencia artificial: es posible mejorar drásticamente las capacidades de razonamiento de un modelo de lenguaje simplemente duplicando ciertas capas, sin necesidad de entrenamiento adicional ni modificación de pesos. 🚀

El método, basado en el trabajo de David Ng sobre los circuitos RYS, fue implementado en GPUs AMD de consumo (RX 7900 XT y RX 6950 XT). Los resultados muestran que los Transformers contienen «circuitos de razonamiento» discretos: bloques contiguos de 3 a 4 capas que funcionan como unidades cognitivas indivisibles. Al duplicar el bloque correcto, el modelo ejecuta su pipeline de razonamiento dos veces, logrando mejoras significativas sin alterar los pesos. 💡

Los experimentos en el modelo Devstral-24B, duplicando las capas 12-14, arrojaron resultados extraordinarios: la capacidad de razonamiento lógico en el benchmark BBH subió de 0.22 a 0.76, mientras que en GSM8K pasó de 0.48 a 0.64, y en generación de código (MBPP) de 0.72 a 0.78. Lo más notable es que ningún resultado se degradó. 📊

Además, diferentes patrones de duplicación crean distintos «modos» cognitivos desde los mismos pesos. Un doble paso potencia las matemáticas, el triple paso mejora el razonamiento emocional, y una duplicación entrelazada (13,13,14,14,15,15,16) convierte al modelo en un especialista puro en matemáticas. ✨ Los límites de estos circuitos son muy precisos: mover una sola capa invierte o elimina el efecto por completo.

El investigador también descubrió que los modelos más pequeños tienen circuitos más ajustados (24B tiene 3 capas) mientras que los más grandes requieren más capas (72B necesita 7). Las herramientas para encontrar estos circuitos en cualquier modelo GGUF están disponibles en el repositorio. 🎯

📎 Fuente: github.com

Deja un comentario