Expertos en Inteligencia Artificial advierten del peligro de los drones asesinos
La inteligencia artificial, el reconocimiento facial y la visión robótica, los vehículos autónomos y los drones, son todos tecnologías geniales que vienen a hacernos la vida más fácil y entretenida; pero en las manos equivocadas pueden ser un cóctel mortífero que usen los terroristas o servir para que países enteros se hagan con armas mucho más letales que las nucleares o las químicas. Para entender el peligro que suponen las “armas robóticas” o los dones asesinos que se pueden crear con esta tecnología, sólo tienes que ver el vídeo “Slaughterbots” que han creado científicos como Stuart Russell, especialista en inteligencia artificial de la Universidad de california en Berkeley, y que se han unido alrededor de la iniciativa “Ban Lethal Autonomous Weapons” (Prohibición de las las armas letales autónomas). El vídeo es escalofriante y muestra cómo pequeños drones guiados por inteligencia artificial podrían cometer asesinatos multitudinarios, completamente dirigidos y selectivos, sin dejar rastro y con un coste muy bajo, lo que los hace ideales para grupos terroristas o gobiernos con pocos escrúpulos.
El grupo de expertos que lidera Stuart Russell está impulsando el que los gobiernos y las Naciones Unidas limiten la creación de máquinas inteligentes y autónomas capaces de quitar la vida a una persona. Como explica el propio Rusell al final de cortometraje, aunque se trata de una historia de ficción, la tecnología que se muestra en el vídeo no tiene nada de ficticia y las armas que se muestran pueden ser ya creadas o están muy cerca de ser una realidad si no se pone freno. “Permitir a las máquinas que decidan aniquilar a una persona será devastador para nuestra seguridad y libertad”, señala el científico.
Y es que aunque puedas pensar que la tecnología para crear los drones asesinos que muestra el cortometraje no está todavía disponible, los científicos como Russell señalan que es tecnología menos avanzada que la que requieren, por ejemplo los vehículos autónomos, que requieren una mayor fiabilidad. Así, uno de estos drones asesinos sólo debe tener un potente sistema de reconocimiento de rostros (que podría funcionar en un servidor remoto) un sistema de guiado capaz de funcionar en interiores y un pequeño explosivo.
Los científicos organizados en la iniciativa Ban Lethal Autonomous Weapons no son por supuesto los primeros en advertir sobre los peligros de la inteligencia artificial. Hace algunos meses, 100 expertos en esta tecnología como Elon Musk, CEO de Tesla o Mustafa Suleyman, fundador de la unidad de inteligencia artificial Deep Mind en Alphabet (Google) firmaron una carta abierta solicitando una prohibición urgente para evitar que se desarrolle una tercera revolución en el armamento, tras la pólvora o las armas nucleares (a día de hoy, 19 países han votado en favor de esta prohibición).
Lo último en Tecnología
-
Beko Europe impulsa la revolución de los hogares inteligentes con su gama 2025
-
5 trucos sencillos para mejorar tus fotos nocturnas con el móvil
-
DeepkSeek: qué es, quién está detrás y cómo funciona
-
Aumenta y mejora tu privacidad si empleas dispositivos Apple: hoy es la fecha clave
-
vivo X200 Pro: así es el nuevo dispositivo que anima la gama alta en Android
Últimas noticias
-
Premio envenenado para el Atlético: se enfrentará en octavos al Real Madrid, Bayern o Manchester City
-
Trump abrirá un centro de detención para «30.000 inmigrantes peligrosos»: «Les mandaremos a Guantánamo»
-
Clasificación de la Champions League: tabla de posiciones de Real Madrid, Barcelona y Atlético
-
Cómo funciona la nueva Champions League: formato de clasificación y qué equipos pasan a octavos de final
-
El Atlético entra en el top 8 por la puerta grande