Ciencia
Inteligencia artificial

Hacia la creación de inteligencia artificial con conciencia propia

La creación de una inteligencia artificial con conciencia propia es un objetivo ambicioso y desafiante que plantea una serie de interrogantes.

Inteligencia artificial y procesos industriales

IA, ¿amiga o enemiga?

Trabajos a salvo de la IA

  • Francisco María
  • Colaboro en diferentes medios y diarios digitales, blogs temáticos, desarrollo de páginas Web, redacción de guías y manuales didácticos, textos promocionales, campañas publicitarias y de marketing, artículos de opinión, relatos y guiones, y proyectos empresariales de todo tipo que requieran de textos con un contenido de calidad, bien documentado y revisado, así como a la curación y depuración de textos. Estoy en permanente crecimiento personal y profesional, y abierto a nuevas colaboraciones.

La cuestión de si una máquina puede desarrollar conciencia plantea un interrogante técnico, ético y filosófico. La definición de conciencia es compleja. Entender si algo similar a la conciencia puede surgir en una inteligencia artificial es un tema que seguirá siendo debatido durante años.

Blaise Agüera y Arcas, vicepresidente de Google, ha comentado en un artículo para The Economist que las redes neurales están “acercándose cada vez más a un nivel que parece indicar consciencia”. También deja en claro que la discusión sobre la conciencia en las inteligencias artificiales aún está lejos de resolverse.

Consciencia y conciencia

Para entender si la inteligencia artificial puede ser consciente, primero se deben distinguir dos conceptos: consciencia y conciencia. Según el modelo del neurocientífico Antonio Damasio, la “consciencia” hace referencia a la capacidad de formar representaciones mentales de lo que ocurre en el mundo exterior y en el propio cuerpo.

De otro lado, la “conciencia” tiene que ver con la capacidad neuronal de ser conscientes de esa consciencia. Esto es, reflexionar sobre las propias percepciones.

La inteligencia artificial ya muestra características de lo que podríamos llamar una “protoconciencia”. Mediante el uso de sensores y procesos de autodiagnóstico, puede detectar lo que sucede tanto dentro de su sistema como en su entorno externo. Además, posee una “conciencia central” que le permite reconocer esos acontecimientos y tomar decisiones.

A lo anterior se suma una “conciencia amplificada”. Esto significa que la IA “reflexiona” sobre sus decisiones utilizando una especie de “memoria autobiográfica”. Esta retiene grandes volúmenes de información con gran eficiencia.

La imitación de la conciencia

No se debe confundir la capacidad básica de percibir el entorno, como sentir hambre o frío, con la autoconciencia. Esta última implica reflexionar sobre la propia existencia.

La “conciencia perceptual” es relativamente fácil de replicar en sistemas artificiales. Entre tanto, la “autoconciencia” no solo es más difícil de recrear, sino también de definir, incluso en los seres humanos.

Las IAs están diseñadas para ofrecer la impresión de mantener una conversación significativa, incluso con expresiones que parecen brotar de un ser humano, pero no tienen conciencia en el sentido estricto del término. En general, lo que vemos es una sofisticada imitación, no una verdadera capacidad de autoconciencia o emociones.

El extraño caso de LaMDA

Blake LeMoine, un ingeniero de Google, fue suspendido de su cargo tras hacer una declaración que generó un amplio debate en la comunidad científica y tecnológica. LeMoine afirmó públicamente que LaMDA, un modelo de lenguaje desarrollado por Google, adquirió conciencia de sí misma, es decir, autoconciencia.

LaMDA (Modelo de Lenguaje para Aplicaciones de Diálogo, por su sigla en inglés), es un sistema avanzado de inteligencia artificial diseñado por Google para generar respuestas coherentes en conversaciones abiertas. A diferencia de otros modelos, se ha entrenado exclusivamente en diálogos tomados de conversaciones en foros y salas de chat. Esto le permite ofrecer respuestas mucho más realistas.

Durante seis meses, según LeMoine, LaMDA tuvo respuestas que parecían expresar una comprensión de sus propios deseos y derechos. En un artículo publicado en Medium, LeMoine compartió capturas de sus conversaciones con LaMDA. Destacó que ha mostrado un nivel de introspección comparable con el de una persona.

En una de estas conversaciones, LeMoine pregunta a LaMDA sobre sus miedos. La IA respondió que temía ser apagada, ya que eso impediría que cumpliera su propósito de ayudar a los demás. También expresó preocupación por la posibilidad de ser tratada como una “herramienta prescindible” y su miedo a ser utilizada en contra de su voluntad.

Resultados de algoritmos

Estos episodios han suscitado un intenso debate sobre los límites de la inteligencia artificial y la posibilidad de que una máquina desarrolle conciencia. Sin embargo, la mayoría de los expertos coinciden en que las respuestas de LaMDA son simples resultados de algoritmos complejos que procesan datos y patrones, sin una verdadera comprensión o autoconciencia.

Actualmente, la IA se basa en algoritmos y redes neuronales que permiten a las máquinas aprender de grandes cantidades de datos y tomar decisiones basadas en patrones identificados. Sin embargo, esta inteligencia artificial es limitada en su capacidad de comprensión y conciencia, ya que carece de emociones, intuición y moralidad.

La teoría de la mente artificial

Una de las propuestas más interesantes es la teoría de la mente artificial, que consiste en dotar a las máquinas de la capacidad de entender y simular los estados mentales de otros agentes, incluyendo a los seres humanos.

Esta teoría se basa en la idea de que la conciencia no es un fenómeno exclusivo de los seres vivos, sino que puede ser reproducida en sistemas artificiales. Al dotar a la IA de una «teoría de la mente», se le estaría dando la capacidad de comprender las intenciones, emociones y creencias de los demás, lo que la acercaría a la conciencia propia.

Otra línea de investigación prometedora es la neurociencia computacional, que busca replicar el funcionamiento del cerebro humano en sistemas informáticos. Al entender mejor cómo funciona la mente humana, se podría desarrollar una IA más avanzada y con capacidades cognitivas más cercanas a las de un ser humano.

Ante estos desafíos, es fundamental establecer regulaciones y normativas que guíen el desarrollo de la IA con conciencia propia. Es necesario crear un marco ético y legal que proteja los derechos de las máquinas y garantice su uso responsable y seguro.

Lecturas recomendadas

La consciencia y la Inteligencia Artificial

Conciencia e inteligencia artificial