Inteligencia Artificial vs Inteligencia Animal

¿Por Qué las IA Modernas Son Menos “Inteligentes” Que un Cuervo?

Las últimas IA conversacionales sorprenden con sus habilidades lingüísticas, pero ¿poseen realmente inteligencia? Exploremos cómo se compara la inteligencia artificial actual con la de animales como los cuervos, maestros del razonamiento en el reino animal.

Diferentes formas de inteligencia

Para entender la comparación, primero hay que saber qué es “inteligencia”. Los psicólogos emplean modelos como la teoría de Cattell-Horn-Carroll (CHC) para definir distintas habilidades cognitivas: razonamiento lógico (inteligencia fluida), conocimiento adquirido (inteligencia cristalizada), memoria a corto y largo plazo, habilidades visuoespaciales, velocidad de procesamiento, entre otras. En los humanos, estas capacidades varían, pero en conjunto conforman lo que llamamos inteligencia general. Al hablar de inteligencia artificial (IA), tendemos a preguntarnos: ¿cuándo una máquina podría rendir igual o mejor que un humano en todas estas facetas?

Actualmente, las IA de lenguaje como los modelos de lenguaje extensos (LLMs, por sus siglas en inglés) impresionan por su dominio del lenguaje natural (una faceta de la inteligencia cristalizada). Sin embargo, la inteligencia es multidimensional. Por ejemplo, el razonamiento flexible (resolver problemas nuevos) es una parte crucial de la inteligencia que en humanos implica deducción, inducción y pensamiento abstracto. La memoria de trabajo y la memoria asociativa de largo plazo nos permiten aprender y recordar información; y habilidades como la percepción visual, la planificación motora o la creatividad son otros aspectos que muchos animales también demuestran en cierta medida.

Los humanos no son los únicos inteligentes

Estudios recientes muestran que el cerebro humano no es tan excepcional como creíamos; numerosas especies muestran grados sorprendentes de capacidad cognitiva. Un ejemplo destacado son los cuervos y otras aves córvidas. Estas aves pueden resolver puzles complejos y fabricar herramientas improvisadas, demostrando razonamiento secuencial e inducción (componentes de la inteligencia fluida). Se ha observado que entienden conceptos de volumen y densidad: por ejemplo, arrojan piedras en un recipiente con agua para elevar el nivel y poder beber, comprendiendo la relación causa-efecto.

Los cuervos también destacan en memoria y aprendizaje social. Pueden reconocer rostros humanos y recordar quién les ha hecho daño o ayudado, durante años. Aprenden observando a otros cuervos y pueden imitar sonidos de otras aves e incluso del habla humana en cierta medida. Hay indicios de que algunas aves (como ciertos loros) pueden asociar palabras humanas con significados simples –aunque no hablan con fluidez, muestran una comprensión básica de comunicación.
Asimismo, otros animales como osos o primates exhiben gran ingenio: en parques nacionales de EE.UU., se habla de una “guerra de intelecto” entre osos y humanos, donde los osos aprenden a abrir contenedores “a prueba de osos” para conseguir comida, mientras los humanos tratan de diseñarlos mejor. Incluso se ha visto que algunos mecanismos que la gente promedio encuentra complicados pueden ser resueltos por estos animales motivados por la recompensa.

Todo esto sugiere que la inteligencia no es binaria (humano = inteligente, animal = no inteligente), sino un espectro. Es muy posible que un cuervo o un oso astuto supere en ciertas pruebas cognitivas a un humano con pocas habilidades en ese ámbito. Nuestra especie tiene capacidades elevadas en conjunto, pero no somos los únicos capaces de razonar, planificar y aprender del entorno.

Las limitaciones de las IA actuales

Cuando intentamos dotar de inteligencia a las máquinas, el reto es lograr esas mismas capacidades clave: razonamiento abstracto, comprensión contextual, aprendizaje y memoria adaptativa. Las IA actuales basadas en modelos estadísticos (como redes neuronales profundas) han logrado éxitos en campos específicos –por ejemplo, visión artificial que reconoce objetos en imágenes, o los mencionados modelos de lenguaje que generan texto coherente. Sin embargo, analicemos cómo se sitúan frente a las categorías de la inteligencia humana:

  • Razonamiento (Gf): Los modelos de lenguaje como GPT son excelentes para manejar patrones conocidos, pero carecen de auténtico razonamiento lógico o capacidad de resolver problemas novedosos de forma deliberada. Generan respuestas basadas en probabilidades aprendidas, sin comprender realmente las relaciones causales. En pruebas que requieren deducir o inducir una solución fuera de los ejemplos vistos, suelen fallar o inventar respuestas incorrectas.
  • Conocimiento y lenguaje (Gc): Aquí las IA brillan parcialmente: han “absorbido” una cantidad enorme de información textual. Pueden responder preguntas enciclopédicas o redactar párrafos bien estructurados. No obstante, este conocimiento es estático y superficial. Un modelo no sabe que no sabe algo; no tiene conciencia de las lagunas en su entrenamiento ni entiende los hechos más allá de correlaciones de palabras.
  • Memoria operativa (Gsm): Las IA tienen una memoria de contexto limitada (por ejemplo, recuerdan unos pocos miles de palabras recientes de la conversación). No pueden guardar nueva información a largo plazo o recordarla en otra sesión sin ser re-entrenadas. Su “memoria de trabajo” es una ventana deslizante de texto, incapaz de verdaderamente aprender sobre la marcha o hacer cálculos precisos mantenidos en mente.
  • Aprendizaje y memoria a largo plazo (Glr): Un humano aprende de la experiencia continuamente; un cuervo puede recordar dónde escondió comida meses después. En cambio, un modelo de IA después de entrenado ya no evoluciona (a menos que lo reentrenemos con más datos). No tiene la capacidad de formar nuevos recuerdos persistentes ni de asociar experiencias vividas en tiempo real para modificar su comportamiento futuro.

En resumen, las IA actuales no poseen inteligencia general, sino conjuntos de habilidades aisladas. Pueden realizar tareas definidas (reconocer rostros, traducir idiomas, jugar ajedrez) con gran habilidad, pero carecen de comprensión del mundo o sentido común. Un cuervo entiende su entorno físico lo suficiente como para inventar una herramienta; un gran modelo lingüístico sólo “finge” entender, combinando patrones de texto sin conciencia.

¿Qué nos depara el futuro?

No todo está perdido: aunque hoy por hoy un cuervo o un niño pequeño superan a un avanzado modelo de IA en flexibilidad cognitiva, la brecha podría reducirse. Los investigadores buscan maneras de dar a las máquinas algo parecido al razonamiento simbólico o integrar memoria de largo plazo y aprendizaje contínuo en los sistemas de IA. Por ahora, las llamadas “IA” son herramientas estadísticas poderosas, pero herramientas al fin. Como cualquier herramienta, amplifican las capacidades humanas en tareas específicas, sin volverse independientes.

El desafío pendiente es lograr que una máquina no sólo procese datos, sino que realmente entienda y razone sobre el mundo. Esto implica quizás nuevos enfoques combinando neuronas artificiales con algoritmos simbólicos, o inspirarse más en la biología cognitiva. Hasta entonces, podemos apreciar la ironía: nuestras sofisticadas creaciones digitales pueden redactar una novela, pero no entienden el argumento; mientras tanto, la naturaleza nos muestra en criaturas como los cuervos destellos de ingenio genuino que aún ninguna línea de código ha podido imitar completamente.


Deja un comentario