Fue en el ISC East de Nueva York donde la Ambient.ai deslizó su última propuesta de inteligencia artificial. Pete Oelschlaeger, vicepresidente de la compañía, describió un sistema capaz de identificar armas de fuego a través de visión computarizada avanzada y de activar medidas de contención casi al instante, incluso en edificios con gran tráfico. “Lo que la IA logra sobrepasar el talento humano es la continuidad y la rapidez de respuesta”, indicó, tras recitar un caso brutal vivido en enero de este año cuando una munición homicida desplazó un edificio del centro de Manhattan, dejando cuatro víctimas fatales.
Las herramientas expuestas combinan sensores de movimiento, reconocimiento de patrones de fuego y análisis de audio para cerrar brechas en la cadena de alerta. Lo interesante de unas de sus configuraciones es la posibilidad de bloquear automáticamente espacios, monitorear la circulación de personas y, casi en tiempo real, mandar notificaciones a los servicios de emergencia, todo encasillado en la misma comunicación entre dispositivos. Según Oelschlaeger, estas redes ya estaban siendo probadas en campus universitarios y oficinas corporativas, con ajustes de calibración que permitirían su escalada a otros entornos de riesgo.
La conversación también dio paso a otras firmas que compiten por este espacio: ShotSpotter, AI Central y Guardify compartieron resultados preliminares de prototipos que se enfocan tanto en la detección de sonido como en la identificación de armas a través de cámaras de alta resolución. En conjunto, estos sistemas estarían reduciendo los tiempos de reacción de las milicias de seguridad en promedio un 75 %, según cifras internas proporcionadas por las compañías.
Mientras la industria avanza, los datos de la Gun Violence Archive siguen ilustrando la magnitud del problema. Antes de mayo, la base de datos había alcanzado 374 incidentes masivos en el año; la cifra de entrecomixtos de las víctimas superó los 900, con más de 300 asesinatos frente a menores. El gobierno federal ha despertado su interés, y diversas agencias de seguridad han pedido tablas de verdad de los modelos predictivos para solaparlos con las políticas de prevención existentes.
La convergencia de la inteligencia artificial y la seguridad física plantea retos éticos y de responsabilidad que no pueden ignorarse. Los reguladores de la industria y los responsables políticos están siendo llamados a definir normas internacionales que establezcan límites clάνicos sobre el uso de la IA en contextos donde la vida humana está en juego. En un sector donde cada caso de detección temprana salva innumerables vidas, el entramado de la inteligencia guardada y la colaboración entre los sectores público y privado se vuelve nada menos que crucial.