FraudGPT: el oscuro clon de ChatGPT empleado por ciberdelincuentes en la Deep Web
La IA se pone al servicio de los ciberdelincuentes con la llegada de FraudGTP el clon oscuro de ChatGPT, destinado a estafar a millones de personas
ChatGPT ya tiene una cara con la que puedes hablar (eso sí, a un precio de 4.600€)
El pueblo a 2 horas de Madrid que se quedó atrapado en el tiempo: uno de los más bonitos de España
Piden la retirada urgente de esta marca de macarrones del supermercado: alerta confirmada
La IA se pone al servicio de los ciberdelincuentes con la llegada de FraudGTP el clon oscuro de ChatGPT, destinado a estafar a millones de personas. La realidad de la Inteligencia Artificial es que está sirviendo para unos usos que no son nada buenos, sino todo lo contrario. Todo aquel que trabaje en redes sociales ya habrá notado que están apareciendo cada vez más bots creados por la IA en busca de datos y de estafas de los usuarios. Un hecho que no es casual llega con FraudGPT y su aplicación para crear estafas digitales.
Los ciberdelincuentes ya tienen el oscuro clon de ChatGPT
Los usos de la IA no son siempre positivos, sino más bien todo lo contrario, se han convertido en una forma de robar datos y de afectar de lleno a las personas que debemos tener en cuenta. Por lo que es importante estar siempre pendiente de lo que hace esta herramienta.
El hecho de poder crear varias personalidades o un chat que pueda hablar con las personas haciéndose pasar por una persona real, ya es un mal que puede causar mucho daño. La llamada carnicería de cerdos, traducido al español, es una forma de entrar dentro de los datos de una persona, ganarse la confianza para que vaya aportando dinero o contraseñas para acceder hasta él.
Hoy en día las estafas en redes sociales son cada vez más frecuentes y al contrario de lo que nos imaginamos, esa solicitud de amistad de un militar de Estados Unidos, no la gestiona una persona, sino que es una máquina. Pueden de esta manera llegar a muchas más personas y eso en ciberseguridad es un plus.
Además de poder estar pendientes de una serie de elementos para ganar la confianza de las personas y que realmente puede cambiarlo todo. Por lo que esta AI tiene una funcionalidad que nada tiene que bueno. Aunque el debate sobre el uso de esta tecnología está servido, si realmente sirve o no para ayudar o es un mal mayor, acabando con determinados trabajos, la realidad va más allá.
Este tipo de aplicaciones en estafas a gran escala es una muestra más de por qué es necesario regular la IA o incluso prohibirla tal como han hecho en algunos países y como deberíamos hacer en España antes de que sea tarde.
FraudGTP puede hacer estafas de gran calibre
Hacerse pasar por un político o un famoso es algo que la IA puede hacer, no solo con una noticia falsa, sino con un vídeo que se puede crear fácilmente. Imagina una vídeo llamada que parezca real, pero no lo es. El resultado puede acabar siendo algo diferente con la ayuda de una serie de elementos.
Por lo que muchos expertos ya han pedido que FraudGTP acabe siendo prohibido o al menos vetado en algunas partes del mundo. Es esencial que seamos capaces de detectar los males de la tecnología y la manera errónea en la que se aplica, provocando millones de estafas en todo el mundo.
Por lo que es importante que este clon maligno no vaya a más, ahora es solo una pequeña fuerza que va ganando cada vez más y más protagonismo. Pero lo que nos espera puede ser un mal mayor que acabaría para siempre con una sociedad que realmente no sabrá distinguir entre la realidad o la ficción de los dispositivos y las redes sociales.
El mal mayor de esta IA es la capacidad que tiene de generar contenido a gran velocidad, sustituyendo a los estafadores convencionales, pero cuidado, también a las personas que están detrás. Por lo que la capacidad de alcance de estas personas puede ser incluso mucho mayor de lo esperado. No es ciencia ficción, se cree que la IA también puede ayudar en la creación de armas, especialmente bioquímicas, ayudando a los delincuentes en la formulación de algunos elementos que pueden hacer mucho daño a la humanidad.
Por lo que el futuro no es nada bueno si no empezamos a prepararnos y a educar a las nuevas generaciones fuera de este ámbito que nos ha traído algunas alegrías, pero también nos está dejando un mal mayor. La aplicación de esta IA a la vida real puede significar una manera de hacer el mal y no solo dejando sin trabajo a millones de personas, sino también provocando graves daños.
Lo que hace unos años parecería parte de un guion de una película de ciencia ficción, ahora es una realidad que puede acabar causando millones de daños. No solo a nivel de robos y materiales, sino que incluso podría costar vidas humanas si no se hace algo para evitarlo. FraudGTP es solo la punta del iceberg de una tecnología que no es nada buena, sino que ya está causando estragos.
Temas:
- Inteligencia artificial