Robots

Roboética: ¿cómo deben actuar los robots en la sociedad?

Robótica
Roboética.
Francisco María
  • Francisco María
  • Colaboro en diferentes medios y diarios digitales, blogs temáticos, desarrollo de páginas Web, redacción de guías y manuales didácticos, textos promocionales, campañas publicitarias y de marketing, artículos de opinión, relatos y guiones, y proyectos empresariales de todo tipo que requieran de textos con un contenido de calidad, bien documentado y revisado, así como a la curación y depuración de textos. Estoy en permanente crecimiento personal y profesional, y abierto a nuevas colaboraciones.

La robotización está avanzando a pasos agigantados. Considerando el grado de autonomía que podrían alcanzar en el futuro y la posibilidad de que lleguen a ser “sintientes” o incluso “conscientes”, se ha abierto una reflexión sobre si es necesario plantear una ética para los robots.

Aunque muchos de estos avances en robótica siguen en el plano de la especulación, el debate ético sobre cómo se debe tratar a los robots está tomando fuerza. Si bien es cierto que hay problemas éticos más urgentes, no se debe dejar de lado el análisis de la roboética.

La pregunta sobre cómo deben actuar los robots en la sociedad no solo se refiere a la programación de sus acciones, sino también a la construcción de un marco ético que guíe esta evolución tecnológica de manera responsable y beneficiosa para todos.Robots

Principios Éticos Fundamentales

La roboética se basa en varios principios fundamentales que deben ser considerados al diseñar y programar robots. Aquí los analizamos:

  • Seguridad: los robots deben ser diseñados para operar de manera segura, evitando causar daño a seres humanos y al entorno.
  • Transparencia: las decisiones tomadas por los robots deben ser comprensibles para los usuarios. Esto implica que sus algoritmos y procesos de toma de decisiones deben ser accesibles y auditables.
  • Responsabilidad: debe haber claridad sobre quién es responsable de las acciones de un robot. Esto incluye la programación, el uso y las decisiones que tomen en situaciones críticas.
  • Justicia: los robots deben actuar de manera justa, evitando sesgos y discriminación en sus interacciones con las personas.

El mind reading

El “mind reading” es un concepto que se traduce literalmente como “lectura de la mente”. Tiene su origen en la psicología y describe la habilidad de los seres humanos para interpretar lo que otra persona está pensando o sintiendo, a través de señales verbales y no verbales. Aunque esta capacidad no es perfecta, facilita las interacciones y permite una mejor comprensión entre los individuos.

Los seres humanos poseemos una habilidad innata para “leer la mente” de otras personas; esto es, para interpretar sus pensamientos y emociones basándonos en lo que dicen y en cómo actúan. Aunque estas señales no siempre son precisas, sí son suficientemente efectivas para mantener unas relaciones sociales fluidas.

Ahora bien, ¿los robots pueden desarrollar una modalidad de mind reading? Lo cierto es que los robots avanzados, especialmente los que están diseñados para interactuar con las personas, han empezado a mostrar ciertas habilidades para interpretar intenciones y emociones humanas.

Mind reading y roboética

Los robots avanzados también tienen la capacidad de simular emociones. Esto, plantea importantes cuestionamientos en la roboética. El filósofo David Gunkel ha dicho que lo que podría definir el estatus moral de un robot no es su naturaleza interna, sino la relación que establecemos con él.

Desde ese punto de vista, si los robots son capaces de leer las intenciones humanas y, a la vez, de simular emociones de manera convincente, es posible que generen vínculos sociales y emocionales con las personas.

Este tipo de interacción podría llevar a situaciones en las que los humanos desarrollen amistades o incluso relaciones sentimentales con robots. Esto genera desafíos éticos a los que todavía no se les ha dado suficiente importancia y que, por lo mismo, aún están por resolverse.Robótica

Los robots militares

Peter Asaro es un filósofo especializado en el impacto social y ético de la inteligencia artificial y la robótica. Fue cofundador del Comité Internacional para el Control de las Armas Robóticas (ICRAC), en 2009. También ha sido uno de los impulsores de la campaña “Stop Killer Robots”, una iniciativa que reúne a varias organizaciones y aboga por la prohibición de las armas autónomas letales.

La introducción de sistemas autónomos en la guerra trae consigo importantes riesgos. Puesto que no hay intervención humana directa, se incrementa la probabilidad de cometer errores en la evaluación de las capacidades del enemigo. Una de las posibles consecuencias es que terminen escalándose algunos conflictos, que podrían gestionarse de manera creativa y pacífica.

Otro aspecto importante, según Asaro, es el peligro que entraña la ciberpiratería. Un ataque en ese frente podría comprometer estos sistemas y desestabilizar las relaciones internacionales.

Asaro ha advertido que, de no establecerse normas claras para la utilización militar de estas armas, es probable que su uso se extienda a otras áreas como la policía, el control fronterizo y la vigilancia civil. De ser así, existe el peligro de que los gobiernos autoritarios las utilicen contra sus propias poblaciones, en particular contra minorías y colectivos vulnerables.

Este filósofo también ha tocado otro punto clave: un robot no tiene la necesidad de defenderse como un ser humano. Por lo tanto, cualquier intervención de un sistema robótico debería basarse en la desactivación de amenazas de manera psicológica antes de recurrir a la violencia física. Sin embargo, no siempre se aplicaría este principio rector.

Lecturas recomendadas

Sobre el contenido de la roboética

Marco ético de la robótica

Lo último en Ciencia

Últimas noticias