La Inteligencia Artificial cada vez más humana: ya razona como las personas

Esta Inteligencia Artificial está basada en redes neuronales, que supera a ChatGPT al incorporar nuevas palabras a su léxico

Inteligencia Artificial
Inteligencia Artificial (Foto: Europa Press).

La Inteligencia Artificial es cada vez más humana: ya razona como las personas e incluso supera a ChatGPT. Esta inteligencia está basada en redes neuronales, que supera a ChatGPT a la hora de incorporar rápidamente nuevas palabras a su léxico, un aspecto clave de la inteligencia humana. Un avance que se desprende de los resultados de una investigación publicada del equipo de Brenden Lake (profesor asistente en el Centro de Ciencia de Datos y Departamento de Psicología y Tecnología de la Universidad de Nueva York) y Marco Baroni (investigador del Instituto Catalán de Investigación y Estudios Avanzados y profesor del Departamento de Traducción y Ciencias del Lenguaje de la Pompeu Fabra, de Barcelona), que han desarrollado un nuevo método de entrenamiento llamado metaaprendizaje composicional (MLC) que enseña a inteligencias artificiales como ChatGPT a establecer estas generalizaciones, en algunos casos incluso mejor que los propios humanos.

Los científicos han creado una red neuronal con una capacidad similar a la humana para hacer generalizaciones sobre el lenguaje. El sistema de Inteligencia Artificial es tan eficaz como los humanos a la hora de incorporar palabras recién aprendidas a un vocabulario ya existente y utilizarlas en nuevos contextos, un aspecto clave de la cognición humana conocido como generalización sistemática.

Durante el proceso de investigación, los investigadores encomendaron la misma tarea al modelo de inteligencia artificial en el que se basa el chatbot ChatGPT, y descubrieron que su rendimiento en este tipo de pruebas era mucho peor que el de la nueva red neuronal o que el de las personas, a pesar de la asombrosa capacidad del chatbot para conversar de forma similar a la humana.

El trabajo, publicado el 25 de octubre en Nature, podría conducir a máquinas que interactúen con las personas de forma más natural que incluso los mejores sistemas de IA actuales. Los sistemas basados en grandes modelos lingüísticos, como ChatGPT, son adeptos a la conversación en muchos contextos, muestran lagunas e incoherencias flagrantes en otros.

El rendimiento similar al humano de la red neuronal sugiere que se ha producido un «gran avance en la capacidad de entrenar redes para que sean sistemáticas», ha destacado Paul Smolensky, científico cognitivo especializado en lenguaje de la Universidad Johns Hopkins de Baltimore (Maryland), según se puede leer en el artículo de la prestigiosa revista.

Lecciones de lenguaje

La generalización sistemática se demuestra por la capacidad de las personas para utilizar sin esfuerzo palabras recién adquiridas en nuevos contextos. Por ejemplo, una vez que alguien ha comprendido el significado de la palabra «photobomb» (cuando alguien aparece tapando a otra persona en una foto), podrá utilizarla en diversas situaciones, como «photobomb twice» (dod veces) o «photobomb during a Zoom call» (Durante una llamada de Zoom). Del mismo modo, alguien que entienda la frase «el gato persigue al perro» también entenderá «el perro persigue al gato» sin pensar mucho más.

Pero esta capacidad no es innata en las redes neuronales, un método de emulación de la cognición humana que ha dominado la investigación en inteligencia artificial, según ha afirmado Brenden Lake, científico computacional cognitivo de la Universidad de Nueva York y coautor del estudio. A diferencia de las personas, a las redes neuronales les cuesta utilizar una palabra nueva hasta que no han sido entrenadas con muchos textos de muestra en los que se utiliza esa palabra. Los investigadores en inteligencia artificial llevan casi 40 años debatiendo si las redes neuronales pueden llegar a ser un modelo plausible de la cognición humana si no pueden demostrar este tipo de sistematicidad.

Para intentar zanjar este debate, los autores han evaluado primero a 25 personas sobre su capacidad para desplegar palabras recién aprendidas en distintas situaciones. Para asegurarse de que los participantes aprendían las palabras por primera vez, los investigadores les sometieron a una prueba con un pseudolenguaje compuesto por dos categorías de palabras sin sentido. Palabras «primitivas» como «dax», «wif» y «lug» representaban acciones básicas y concretas como «skip» (saltar en inglés) y «jump» (saltar en inglés en referencia a un acto físico). Otras palabras «funcionales» más abstractas, como «blicket», «kiki» y «fep», especificaban reglas para utilizar y combinar las palabras primitivas, dando lugar a secuencias como «saltar tres veces» o «saltar hacia atrás».

Lo último en Sociedad

Últimas noticias