Hitachi ya puede predecir un crimen antes de que se cometa
Seguro que recuerdas la película de ciencia ficción, Minority Report, en la que unos mutantes eran capaces de ver el futuro y sus predicciones se usaban para combatir el crimen antes de que sucediese. Pues bien, ahora, gracias a las tecnologías de análisis de grandes volúmenes de datos (el llamado Big Data) y la inteligencia artificial, fabricantes como Hitachi aseguran que ya tienen sistemas que, combinados con información de redes sociales, o los sensores y cámaras en las calles son capaces de predecir cuándo va a producirse un crimen en una ciudad. Este sistema, llamado Hitachi Visualization Predictive Crime Analytics (PCA) o “análisis predictivo del crimen”, está basado en en la plataforma de inteligencia artificial (o Machine Learning) de Hitachi y tiene la capacidad de usar volúmenes ingentes de información de todo tipo (desde los mensajes de Twitter y otras redes sociales, las llamadas al 911, la proximidad de escuelas o estaciones de Metro, la detección de sensores de armas o incluso el tiempo), para predecir en qué lugares y a qué horas será más probable que se produzca un delito y de qué tipo.
Aunque pueda sonar a ciencia ficción, el sistema está empezando a probarse ya en distintas ciudades de EEUU y se está lavando a cabo lo que se conoce como un test “ciego” en el que, en un principio, no se tendrá en cuenta su información para la acción policial y simplemente se compararán a posteriori los resultados del sistema de Hitachi con los sucesos que se den en realidad.
¿Y que tiene de especial este sistema que no puedan hacer los investigadores humanos? Según Mark Jules, cofundador de la compañía Avrio que Hitachi adquirió para hacerse con esta tecnología, la diferencia está en que los investigadores llevan a cabo modelos de predicción del crimen basándose en su experiencia con determinadas variables, como la localización de escuelas o las palabras pertenecientes a la jerga callejera para denominar a las drogas que aparecen en redes sociales como Twitter. Estos investigadores asignan un peso a cada variable en función de lo importante que parece ser. El sistema de Hitachi no requiere que un humano deduzca qué variables son importantes y cuánto, simplemente analiza los datos y con el tiempo va buscando correlaciones y anomalías, lo que significa que ese capaz de encontrar claves que quizá a un humano se le han pasado por alto.
Una de las fuentes de vital importancia para obtener datos relevantes es, según explica el reportaje de fastcompany.com, el análisis de los datos provenientes de redes sociales, que son capaces de aumentar la precisión del sistema hasta en un 15 por cien, gracias al análisis del lenguaje natural (todas las grandes compañías que tienen tecnologías de este tipo como IBM con Watson, Xerox, o Microsoft con el “Machine Learning” de su plataforma Azure). El sistema es capaz de entender no sólo palabras que se usan en la jerga criminal, sino incluso es capaz de descubrir palabras que se usan de manera anormal y que se empiezan a usar de manera frecuente y con cierta proximidad, lo que podría tener una mayor importancia.
Curiosamente, desde el punto de vista de los usuarios, el sistema PCA de Hitachi tiene una interfaz visual y fácil de entender, mostrando con distintos colores un “mapa de calor” las zonas con mayor probabilidad de sucesos y con iconos que indican la presencia de armas, teléfonos móviles, vehículos, cámaras de vigilancia, etc. Además, permite realizar búsquedas por calles o zonas, mostrar las imágenes de las cámaras de vigilancia, o mostrar todos los eventos en un determinado periodo de tiempo, lo que puede servir para ayudar a los investigadores humanos a encontrar claves para predecir próximos sucesos o analizar los pasados.
https://youtu.be/q2bmImPNKbM
Uno de los aspectos polémicos del sistema es el que tiene que ver con la privacidad o el peligro de que se convierta en un método de discriminación que podría convertir en sospechosos a ciudadanos inocentes. Según el desarrollador, el sistema hace todo lo contrario ya que evita la discriminación por circunstancias como la edad, el sexo o el color de la piel que habitualmente se achacan a los controles llevados a cabo por humanos (en ciudades como Nueva York, por ejemplo, les estadísticas indican que el 85 por cien de los que son detenidos en la calle para revisar su documentación son latinos o afro americanos). La idea del PCA es que no necesitas tener que llevar a cabo controles exhaustivos de transeúntes, sencillamente debes aumentar la presencia policial en las áreas que son más proclives a que suceda un crimen en un momento determinado.
Lo último en Tecnología
-
Cómo escribir mejores prompts para que la IA te dé respuestas útiles de verdad
-
10 preguntas a Siri en iPhone que te ayudan de verdad a aprovechar mejor tu móvil
-
Apple bate récords: el 30% de los productos de Apple reciclados ya son una realidad en 2026
-
La nueva vivo X300 Series llega a España con óptica ZEISS y potencia de cine
-
Google lanza Gemini para Mac: así es su app nativa para competir con ChatGPT en escritorio
Últimas noticias
-
Más de 15.000 policías y guardias civiles exigen al Gobierno la profesión de riesgo: «¡Marlaska dimisión!»
-
Un experto en seguridad internacional urge a la UE: «Hay que combatir la financiación del terrorismo»
-
Rafa Jódar – Fils en directo online: resultado en vivo y resumen de semifinales del Conde de Godó
-
El éxodo venezolano llena la Puerta del Sol casi dos horas antes del encuentro con Corina Machado para pedir «elecciones libres»
-
A qué hora es el Atlético de Madrid – Real Sociedad y dónde ver gratis en directo la final de la Copa del Rey hoy en vivo