Un sistema de inteligencia artificial “identifica las intenciones criminales” para evitar delitos

Se trata de un desarrollo chino. El polémico programa analiza, por medio de Big Data, los comportamientos de los ciudadanos. Si reúne varios factores para considerar que una persona es sospechosa, envía un aviso a la policía.

En China se comenzó a probar un sistema de vigilancia basado en inteligencia artificial que ayudaría a identificar a potenciales criminales.

«Si utilizamos bien estos sistemas e instalaciones inteligentes, podremos saber de antemano quién podría ser un terrorista, o cometer una ofensa», dijo Li Meng, viceministro de Ciencia y Tecnología chino en declaraciones al Financial Times.

La compañía Cloud Walk, que se encuentra en Guangzho, provincia de Cantón, utiliza imágenes obtenidas en cámaras ubicadas en sitios públicos y luego las analiza con inteligencia artificial.

El sistema emplea reconocimiento facial para identificar, por ejemplo, si se trata de un individuo con antecedentes penales. Incluso puede reconocer la expresión del rostro y podría inferir su emoción: ¿se ve nerviosa, relajada, enojada?

A eso se suma el análisis de los comportamientos y movimientos. Así, si el sistema identifica que, por ejemplo, una persona fue a un local de venta de armas y luego visitó, en reiteradas oportunidades, una misma esquina, como si estuviera haciendo un estudio de campo antes de cometer un delito (al menos según las previsiones de la inteligencia artificial) enviaría un alerta a la policía con estos datos.

¿Cuál es la tecnología detrás de este invento? Por empezar, hay inteligencia artificial para hacer los reconocimientos. Y a esto se suma el Big Data, que permite procesar los grandes volúmenes de información recogidos en el proceso.

En China no es la primera vez que se usa la inteligencia artificial para estos propósitos. Allí existe un sistema de reidentificación personal que permite identificar a un individuo aun cuando este se encuentre camuflado con máscara, peluca u otros elementos.

Fuente: Infobae