Duplicar capas de un LLM mejora razonamiento sin entrenamiento
Investigador descubre que duplicar capas específicas de un LLM mejora el razonamiento lógico de 0.22 a 0.76 sin entrenamiento ni modificar pesos.
Criterio para navegar la transformación tecnológica
Investigador descubre que duplicar capas específicas de un LLM mejora el razonamiento lógico de 0.22 a 0.76 sin entrenamiento ni modificar pesos.
Astral se une a OpenAI como parte del equipo Codex. Las herramientas Ruff, uv y ty seguirán siendo de código abierto.
Cook es una nueva CLI para orquestar Claude Code, permitiendo combinar trabajo, bucles y composición paralela con operadores simples como xN y review.
Walmart y OpenAI descubren que su experimento de comercio agentic en ChatGPT no funciona: ventas decepcionantes y bajas tasas de conversión.
¿Por Qué las IA Modernas Son Menos “Inteligentes” Que un Cuervo? Las últimas IA conversacionales sorprenden con sus habilidades lingüísticas, pero ¿poseen realmente inteligencia? Exploremos cómo se compara la inteligencia…