Redes sociales

Hitachi ya puede predecir un crimen antes de que se cometa

Hitachi ya puede predecir un crimen antes de que se cometa
Minority_report Hitachi
0 Comentar

Seguro que recuerdas la película de ciencia ficción, Minority Report, en la que unos mutantes eran capaces de ver el futuro y sus predicciones se usaban para combatir el crimen antes de que sucediese. Pues bien, ahora, gracias a las tecnologías de análisis de grandes volúmenes de datos (el llamado Big Data) y la inteligencia artificial, fabricantes como Hitachi aseguran que ya tienen sistemas que, combinados con información de redes sociales, o los sensores y cámaras en las calles son capaces de predecir cuándo va a producirse un crimen en una ciudad. Este sistema, llamado Hitachi Visualization Predictive Crime Analytics (PCA) o “análisis predictivo del crimen”, está basado en en la plataforma de inteligencia artificial (o Machine Learning) de Hitachi y tiene la capacidad de usar volúmenes ingentes de información de todo tipo (desde los mensajes de Twitter y otras redes sociales, las llamadas al 911, la proximidad de escuelas o estaciones de Metro, la detección de sensores de armas o incluso el tiempo), para predecir en qué lugares y a qué horas será más probable que se produzca un delito y de qué tipo.

Hitachi Analisis Crimen 1

Aunque pueda sonar a ciencia ficción, el sistema está empezando a probarse ya en distintas ciudades de EEUU y se está lavando a cabo lo que se conoce como un test “ciego” en el que, en un principio, no se tendrá en cuenta su información para la acción policial y simplemente se compararán a posteriori los resultados del sistema de Hitachi con los sucesos que se den en realidad.

¿Y que tiene de especial este sistema que no puedan hacer los investigadores humanos? Según Mark Jules, cofundador de la compañía Avrio que Hitachi adquirió para hacerse con esta tecnología, la diferencia está en que los investigadores llevan a cabo modelos de predicción del crimen basándose en su experiencia con determinadas variables, como la localización de escuelas o las palabras pertenecientes a la jerga callejera para denominar a las drogas que aparecen en redes sociales como Twitter. Estos investigadores asignan un peso a cada variable en función de lo importante que parece ser.  El sistema de Hitachi no requiere que un humano deduzca qué variables son importantes y cuánto, simplemente analiza los datos y con el tiempo va buscando correlaciones y anomalías, lo que significa que ese capaz de encontrar claves que quizá a un humano se le han pasado por alto.

Hitachi Analisis Crimen 2

Una de las fuentes de vital importancia para obtener datos relevantes es, según explica el reportaje de fastcompany.com, el análisis de los datos provenientes de redes sociales, que son capaces de aumentar la precisión del sistema hasta en un 15 por cien, gracias al análisis del lenguaje natural (todas las grandes compañías que tienen tecnologías de este tipo como IBM con Watson, Xerox, o Microsoft con el “Machine Learning” de su plataforma Azure). El sistema es capaz de entender no sólo palabras que se usan en la jerga criminal, sino incluso es capaz de descubrir palabras que se usan de manera anormal y que se empiezan a usar de manera frecuente y con cierta proximidad, lo que podría tener una mayor importancia.

Curiosamente, desde el punto de vista de los usuarios, el sistema PCA de Hitachi tiene una interfaz visual y fácil de entender, mostrando con distintos colores un “mapa de calor” las zonas con mayor probabilidad de sucesos y con iconos que indican la presencia de armas, teléfonos móviles, vehículos, cámaras de vigilancia, etc. Además, permite realizar búsquedas por calles o zonas, mostrar las imágenes de las cámaras de vigilancia, o mostrar todos los eventos en un determinado periodo de tiempo, lo que puede servir para ayudar a los investigadores humanos a encontrar claves para predecir próximos sucesos o analizar los pasados.

https://youtu.be/q2bmImPNKbM

Uno de los aspectos polémicos del sistema es el que tiene que ver con la privacidad o el peligro de que se convierta en un método de discriminación que podría convertir en sospechosos a ciudadanos inocentes. Según el desarrollador, el sistema hace todo lo contrario ya que evita la discriminación por circunstancias como la edad, el sexo o el color de la piel que habitualmente se achacan a los controles llevados a cabo por humanos (en ciudades como Nueva York, por ejemplo, les estadísticas indican que el 85 por cien de los que son detenidos en la calle para revisar su documentación son latinos o afro americanos). La idea del PCA es que no necesitas tener que llevar a cabo controles exhaustivos de transeúntes, sencillamente debes aumentar la presencia policial en las áreas que son más proclives a que suceda un crimen en un momento determinado.

Noticias relacionadas

Lo más vendido

Categorías

Últimas noticias