Duplicar capas de un LLM mejora razonamiento sin entrenamiento
Investigador descubre que duplicar capas específicas de un LLM mejora el razonamiento lógico de 0.22 a 0.76 sin entrenamiento ni modificar pesos.
Blog de Francis Zorrilla sobre IA y Robótica.
Investigador descubre que duplicar capas específicas de un LLM mejora el razonamiento lógico de 0.22 a 0.76 sin entrenamiento ni modificar pesos.