Sistemas de detección de armas impulsadas ​​por la Inteligencia Artificial

Las empresas están buscando usar inteligencia artificial para detectar armas antes de que los tiradores entren en las aulas. 

Tim Button recibió algunas de las peores noticias posibles: su sobrino de 15 años, Luke Hoyer, murió en el tiroteo en la escuela Marjory Stoneman Douglas High School en Parkland, Florida. Desde ese terrible día, muchos de los compañeros sobrevivientes de Luke se han convertido en voces prominentes en el movimiento por leyes de armas más estrictas. Pero a medida que el enfrentamiento por el control de armas se intensificó una vez más tras la tragedia, Button recibió una llamada comprensiva de su amigo Rick Crane, quien sugirió desarrollar un sistema de seguridad perimetral al estilo de una cerca invisible. Después de largas discusiones, decidieron crear una empresa para aprovechar lo último en sistemas de seguridad de alta tecnología que, esperan, puedan detectar posibles tiradores antes de que abran fuego.

La idea de aprovechar las soluciones tecnológicas inmediatas refleja los antecedentes profesionales de ambos hombres: Button es propietario de una empresa de telecomunicaciones y Crane es director de ventas, seguridad de red y gestión de la nube para una subsidiaria de informática en la nube de Dell Technologies. Hasta ahora, su puesta en marcha, Shielded Students, ha contratado a tres empresas de seguridad: un servicio de coordinación de respuesta a emergencias y dos que fabrican sistemas de detección de armas. Uno de estos sistemas, desarrollado por Patriot One Technologies en Canadá, integra un escáner de radar de microondas con una popular técnica de inteligencia artificial (IA) que está entrenada para identificar pistolas y otras armas ocultas. Shielded Students espera combinar estas y otras soluciones en un paquete que pueda ayudar a prevenir otro tiroteo masivo como el que mató a Luke y otras 16 personas.

“Puedo decirles con mucha confianza que esta tecnología, incorporada en Marjory Stoneman Douglas, probablemente habría salvado a los 17”, dijo Button, “incluido mi sobrino, que fue una de las primeras personas asesinadas”.

Mientras los legisladores y defensores luchan por las leyes de armas, una lista cada vez mayor de empresas se une a Shielded Students para llenar los vacíos de seguridad escolar. Al igual que Patriot One, varios dicen que usarán inteligencia artificial para detectar armas automáticamente, ya sea con detección de alta tecnología o escaneando imágenes de vigilancia. Todo suena prometedor, pero a algunos expertos les preocupa convertir los terrenos de la escuela en zonas de mucha vigilancia donde la IA ayuda a las empresas privadas a recopilar y analizar montones de datos de los estudiantes. Más importante aún, dicen, hay poca o ninguna información pública disponible para evaluar si estos sistemas de detección de armas impulsados ​​por inteligencia artificial funcionan bien en un entorno escolar ajetreado, aunque la búsqueda de soluciones se ha vuelto cada vez más urgente.

Si bien el número de tiroteos en escuelas ha disminuido modestamente desde la década de 1990, una serie de incidentes recientes ha impulsado un debate nacional sobre la seguridad escolar. Y el tiroteo en Parkland en particular ha renovado las discusiones sobre el fortalecimiento de las regulaciones de armas en los Estados Unidos, que ha experimentado 57 veces más tiroteos en escuelas que todos los demás países industrializados juntos. Desde la masacre de Columbine High School en 1999, más de 187.000 estudiantes han experimentado violencia con armas de fuego en las escuelas estadounidenses.

Dadas las preocupaciones del público, las empresas de seguridad probablemente encontrarán al menos algunos clientes dispuestos. De hecho, Shielded Students ya está en conversaciones con las escuelas para probar el sistema en los campus, y aunque Button dice que la tecnología no atrapará a todos los tiradores, sigue convencido de que el impacto será real. “Ciertamente evitará que un gran porcentaje de cosas sucedan en las escuelas y sus alrededores”, dijo.


A más de 3,000 millas de Florida, Leo Liu dice que asimiló las noticias del tiroteo en Parkland como “un gran golpe”. Dos semanas después, su preocupación creció cuando vio que la escuela de su hijo de 7 años lanzaba simulacros de tiradores activos junto con los simulacros de terremoto que son rutinarios donde viven en el noroeste del Pacífico. Al igual que Button, Liu, cofundador de una startup con sede en Seattle llamada Virtual eForce, formó un plan de alta tecnología para detectar y rastrear a los futuros tiradores escolares.

La visión de Liu se basa en la inteligencia artificial para detectar automáticamente armas en las imágenes de videovigilancia. Una vez que el sistema marca un arma potencial, puede alertar al personal de seguridad, quien puede confirmar o descartar la posible amenaza antes de desencadenar el cierre de la escuela y notificar a la policía. El sistema, dice Liu, también podría ayudar a rastrear al pistolero y enviar alertas de ubicación por mensaje de texto o aplicación a la escuela y la policía. Según Virtual eForce, el sistema ya se está probando en un edificio de oficinas de atención médica y la empresa espera seguir su ejemplo en las escuelas. Al menos otras dos compañías también están lanzando la detección de armas basada en inteligencia artificial, incluida AnyVision, con sede en Israel, y SN Technologies, con sede en Canadá, según The Washington Post .

La tecnología de inteligencia artificial detrás de estos esfuerzos, conocida como aprendizaje profundo, representa los últimos avances en visión por computadora. Al entrenar algoritmos de aprendizaje profundo en miles o millones de imágenes, los investigadores pueden crear software de computadora que reconoce y etiqueta rostros humanos, gatos, perros, automóviles y otros objetos en fotos o videos. La misma idea se aplica a las armas.

Pero los sistemas de aprendizaje profundo son tan buenos como su formación. Por ejemplo, es posible que un algoritmo entrenado para reconocer armas basado en escenas bien iluminadas de películas y programas de televisión de Hollywood no funcione bien en imágenes de seguridad. “Desde un punto de vista visual”, un arma puede aparecer como “nada más que una mancha oscura en la pantalla de la cámara”, dice Tim Hwang, director de la Iniciativa de Ética y Gobernanza de la IA en el Harvard Berkman-Klein Center y el MIT Media Lab.

Para aumentar la precisión, Virtual eForce entrenó sus algoritmos para reconocer diferentes tipos de armas, como armas largas, incluidas las AR-15 y AK-47, y las pistolas de mano. La startup también filmó sus propios videos de personas con diferentes armas desde diferentes ángulos y bajó la resolución para imitar imágenes de vigilancia granulosas.

Aún así, Liu reconoció que ningún algoritmo de aprendizaje profundo será perfecto en el mundo real. Los errores más comunes del sistema son los falsos positivos, cuando identifica erróneamente un objeto relativamente inocuo como un arma. Como salvaguardia, las personas tendrán la última palabra en la evaluación de cualquier amenaza que el sistema señale, dice Liu. Estos controles humanos podrían incluso mejorar el rendimiento de un algoritmo de aprendizaje profundo al confirmar o corregir la clasificación inicial del sistema.

Sin embargo, incluso con estas salvaguardias, las personas tienen sus propios prejuicios que pueden influir en la forma en que interpretan una posible amenaza, dice Douglas Yeung, psicólogo social de RAND Corporation que estudia los impactos sociales de la tecnología. Y la capacitación y la experiencia de las personas que supervisan el sistema de inteligencia artificial también serán importantes, ya sean guardias, especialistas en seguridad o analistas de imágenes.

Luego está la cuestión de la privacidad. Tanto AnyVision como SN Technologies, por ejemplo, combinan la detección de armas con el reconocimiento facial para identificar a los posibles tiradores. De manera similar, Virtual eForce dice que podría incorporar reconocimiento facial si los clientes desean la capa de seguridad adicional. Pero el uso de esta tecnología en los estudiantes conlleva muchas más preocupaciones de privacidad y precisión, lo que podría desanimar a algunas escuelas.

“Podría haber un efecto paralizador de la vigilancia y la cantidad de datos que necesita para lograrlo”, dice Hwang.


La videovigilancia generalmente solo pueden detectar un arma desenvainada. Es por eso que Patriot One, la compañía canadiense, planea ofrecer a las escuelas una tecnología diferente que podría identificar armas escondidas debajo de la ropa o en bolsas. “Estamos enfocados en amenazas ocultas”, dijo el director ejecutivo Martin Cronin, “para las cuales la visión por computadora no es adecuada”.

El enfoque de Patriot One se basa en una tecnología de radar especializada, desarrollada en asociación con la Universidad McMaster, que puede ocultarse detrás de los escritorios de seguridad o en las paredes cerca de los puntos de acceso principales de un edificio. Las ondas de radar rebotan en un objeto oculto y devuelven una señal que revela su forma y composición metálica. A partir de ahí, una herramienta de aprendizaje profundo reconoce los patrones de radar que coinciden con las armas, incluidas pistolas, pistolas largas, cuchillos y explosivos. Hasta ahora, uno de los mayores desafíos es entrenar la herramienta para que ignore el desorden habitual en la mochila de un estudiante, como la ropa de gimnasia arrugada, un libro de texto o un estuche de lápices.

La compañía estaba trabajando con el Westgate Las Vegas Resort and Casino incluso antes de que ocurriera el tiroteo masivo más mortífero en la historia moderna de los Estados Unidos el 1 de octubre de 2017 cerca del Strip. El hombre armado usó maletas para contrabandear un arsenal de armas a las habitaciones del hotel en el día 32. piso de Mandalay Bay. En el futuro, si Patriot One puede demostrar que su tecnología funciona, el sistema podría ayudar a detectar una maleta de armas.

Para manejar falsos positivos, Patriot One permitirá a los clientes establecer un umbral para las alertas del sistema sobre posibles amenazas. Un hotel, por ejemplo, podría optar por recibir alertas solo si una amenaza tiene un 70 por ciento de probabilidades de ser real. Pero la compañía también parece consciente de la necesidad de lograr un producto confiable antes de vender su sistema a los distritos escolares, y ha estado cooperando activamente con Shielded Students a raíz del tiroteo en la escuela de Parkland.

“No vamos a lanzar para una amplia implementación comercial hasta que estemos satisfechos con la alta precisión”, dice Cronin. “Y por eso estamos haciendo esta optimización y pruebas en el mundo real, porque sería inaceptable tener un alto nivel de falsos positivos, porque la gente perdería la fe en el sistema”.

Dada la falta de datos públicos, es difícil juzgar de forma independiente la precisión de cualquiera de los nuevos sistemas de seguridad. Pero más allá del desafío del desempeño en el mundo real, los sistemas podrían ser vulnerables a las personas que buscan activamente engañarlos. Un individuo o grupo conocedor de la tecnología, por ejemplo, podría intentar piratear un sistema de visión por computadora basado en IA y enviar miles o incluso millones de imágenes modificadas para descubrir la mejor manera de confundirlo, un proceso conocido en la investigación de IA como adversario. ataque.

“Creo que la prioridad número uno es ser consciente de que existen estos ataques adversarios y reconocer que si un atacante está lo suficientemente incentivado para romper un sistema basado en aprendizaje automático, es probable que encuentre una manera de hacerlo”, dice Andrew Ilyas. , un Ph.D. entrante candidato en informática en el MIT. “Basado en el trabajo en el campo, no parece que estemos listos para que las decisiones de misión crítica se tomen basándose únicamente en la IA”.

Ilyas y sus colegas en LabSix, un grupo de investigación de inteligencia artificial dirigido por estudiantes del MIT, ya han demostrado que es posible engañar a las herramientas de aprendizaje profundo. En 2017, el equipo mostró cómo romper Google Cloud Vision , un servicio comercial que puede etiquetar imágenes como rostros y puntos de referencia. También engañaron a un algoritmo de visión por computadora de Google, uno de los mejores disponibles, para clasificar una tortuga impresa en 3D como un rifle .

Es difícil decir con qué facilidad estos ataques adversarios podrían engañar a los sistemas de vigilancia reales impulsados ​​por IA, dice Anish Athalye, Ph.D. candidato en informática en el MIT y miembro de LabSix. Hasta donde sabe el equipo del MIT, nadie ha demostrado públicamente un ataque adversario exitoso en tales sistemas de vigilancia.

Aún así, no es difícil imaginar los riesgos de seguridad que podrían surgir en los próximos años. Un atacante sofisticado puede disfrazar una pistola para que aparezca en un sistema de seguridad como una caja de lápices o un par de calcetines de gimnasia.


A PESAR DEL entusiasmo DE BUTTON por que los estudiantes protegidos ayuden a proteger las escuelas de inmediato, reconoce que los socios de la empresa de seguridad involucrados necesitan tiempo para recopilar más datos e integrar sus tecnologías. Por ahora, Shielded Students planea probar su sistema en varias escuelas, mientras está atento a las nuevas soluciones de seguridad de alta tecnología a medida que estén disponibles. “Esperamos poder intercambiar estas tecnologías según sea necesario, así como agregar nuevas tecnologías, a medida que aprendemos qué más hay o se introducen nuevas tecnologías”, dijo Button.

Por supuesto, ninguna seguridad escolar es infalible. Hoy, incluso sin la inteligencia artificial de alta tecnología, las escuelas colocan policías o guardias armados, limitan los puntos de acceso e instalan detectores de metales, y todos no han logrado detener a los tiradores escolares en algún momento, dice Cheryl Lero Jonson, profesora asistente de justicia penal en Universidad Xavier en Cincinnati, Ohio. El año pasado, Jonson publicó una revisión de la literatura en la revista Victims & Offenders sobre la efectividad de las medidas de seguridad escolar. Ella encontró que todos ellos faltaban.

“Las medidas de prevención, incluidas las medidas impulsadas por la tecnología, pueden incumplirse o fallar”, dice Jonson. Los simulacros de tiradores activos serán necesarios incluso a medida que la tecnología mejore, agrega, porque “las personas deben estar equipadas con las habilidades y la preparación mental necesarias para sobrevivir a un evento de tiro activo”.

Queda por ver si la vigilancia de alta tecnología puede marcar la diferencia en futuros casos de tiroteos escolares. Hwang en MIT, quien también es un exlíder de políticas públicas globales sobre inteligencia artificial y aprendizaje automático para Google, no necesariamente se opone a la búsqueda de soluciones a la violencia armada más allá de la reforma de la regulación de armas, pero no cree que las herramientas de vigilancia basadas en inteligencia artificial estén listas , en parte porque no está convencido de que la mayoría de las empresas tengan suficientes datos de formación para garantizar un sistema preciso.

Incluso si los sistemas funcionan, tener cámaras y equipos de vigilancia en todas partes en las escuelas podría generar una pendiente resbaladiza en términos de cómo se utilizan los datos de vigilancia. Las empresas privadas pueden sentirse tentadas a vender a las escuelas usos adicionales de todos los datos que se recopilan cada día.

“En general, me preocupa el impacto de la vigilancia profunda en la experiencia educativa”, dijo Hwang.

En México estamos diseñando y desarrollando un proyecto desde el 2019, cuando empezó una ola de secuestros a las afueras de las diferentes estaciones del metro de la Ciudad de México que genero caos dentro de los ciudadanos y fue tendencia en redes sociales por un largo tiempo. Dicha solución busca poder comprender y analizar los comportamientos de las personas que transitan por los pasillos y vagones del metro para prevenir actos delictivos, todo esto mediante cámaras inteligentes y un sistema diseñado con técnicas de inteligencia artificial, machine leaning y deep learning.

Seguridad pública con inteligencia artificial