Expertos en Inteligencia Artificial advierten del peligro de los drones asesinos
La inteligencia artificial, el reconocimiento facial y la visión robótica, los vehículos autónomos y los drones, son todos tecnologías geniales que vienen a hacernos la vida más fácil y entretenida; pero en las manos equivocadas pueden ser un cóctel mortífero que usen los terroristas o servir para que países enteros se hagan con armas mucho más letales que las nucleares o las químicas. Para entender el peligro que suponen las “armas robóticas” o los dones asesinos que se pueden crear con esta tecnología, sólo tienes que ver el vídeo “Slaughterbots” que han creado científicos como Stuart Russell, especialista en inteligencia artificial de la Universidad de california en Berkeley, y que se han unido alrededor de la iniciativa “Ban Lethal Autonomous Weapons” (Prohibición de las las armas letales autónomas). El vídeo es escalofriante y muestra cómo pequeños drones guiados por inteligencia artificial podrían cometer asesinatos multitudinarios, completamente dirigidos y selectivos, sin dejar rastro y con un coste muy bajo, lo que los hace ideales para grupos terroristas o gobiernos con pocos escrúpulos.
El grupo de expertos que lidera Stuart Russell está impulsando el que los gobiernos y las Naciones Unidas limiten la creación de máquinas inteligentes y autónomas capaces de quitar la vida a una persona. Como explica el propio Rusell al final de cortometraje, aunque se trata de una historia de ficción, la tecnología que se muestra en el vídeo no tiene nada de ficticia y las armas que se muestran pueden ser ya creadas o están muy cerca de ser una realidad si no se pone freno. “Permitir a las máquinas que decidan aniquilar a una persona será devastador para nuestra seguridad y libertad”, señala el científico.
Y es que aunque puedas pensar que la tecnología para crear los drones asesinos que muestra el cortometraje no está todavía disponible, los científicos como Russell señalan que es tecnología menos avanzada que la que requieren, por ejemplo los vehículos autónomos, que requieren una mayor fiabilidad. Así, uno de estos drones asesinos sólo debe tener un potente sistema de reconocimiento de rostros (que podría funcionar en un servidor remoto) un sistema de guiado capaz de funcionar en interiores y un pequeño explosivo.
Los científicos organizados en la iniciativa Ban Lethal Autonomous Weapons no son por supuesto los primeros en advertir sobre los peligros de la inteligencia artificial. Hace algunos meses, 100 expertos en esta tecnología como Elon Musk, CEO de Tesla o Mustafa Suleyman, fundador de la unidad de inteligencia artificial Deep Mind en Alphabet (Google) firmaron una carta abierta solicitando una prohibición urgente para evitar que se desarrolle una tercera revolución en el armamento, tras la pólvora o las armas nucleares (a día de hoy, 19 países han votado en favor de esta prohibición).