Los tiroteos en lugares públicos como escuelas, centros comerciales e iglesias han sido un problema persistente, sobre todo en Estados Unidos. En distintos países, el debate sobre si deben controlarse las licencias de armas es intenso.
El público sigue pagando el precio de que un individuo decida disparar a personas al azar. El control de armas en Estados Unidos es un derecho consagrado, y los cambios al respecto no se producirán rápidamente.
Mientras tanto, la inteligencia artificial (IA) ofrece cierta esperanza al ofrecer una mejor respuesta a los tiroteos. No impide que el tirador llegue al lugar de los hechos, pero puede ayudar a localizarlo o reducir el costo de vidas humanas.
Varias empresas han puesto en marcha soluciones de IA que se integran con la seguridad en lugares públicos, como las cámaras de seguridad, y proporcionan información puntual al personal de seguridad para que actúe cuando sea necesario.
Sin embargo, las soluciones de IA pueden tener sus defectos. Los expertos sostienen que, en nombre del escaneado de lugares públicos, se pondrá en peligro la privacidad de los visitantes, y la IA podría utilizarse potencialmente para discriminar entre comunidades o razas.
Pero disparar es un gran problema, y la seguridad y la protección son preciosas. No es de extrañar que haya crecido el mercado de la IA para ofrecer una solución.
¿Cómo puede ayudar la IA a reducir los tiroteos masivos?
A modo de estudio de caso, tratemos de entender cómo funciona Zeroeyes, una empresa que ofrece soluciones de IA para vigilar y prevenir o controlar la violencia armada.
El software de IA se integra con las cámaras de vigilancia de lugares públicos y vigila a los visitantes.
Cuando la cámara detecta a una persona con un arma de fuego visible, el software enciende una luz roja en la sala de respuesta a un interviniente formado.
Este revisa rápidamente las imágenes y, si considera que existe una amenaza, avisa inmediatamente al personal de seguridad, que a su vez puede informar a las fuerzas del orden.
Todo este proceso puede parecer mucho tiempo, pero según Rob Huberty, uno de los fundadores de Zeroeyes junto con Sam Alaimo, ambos ex SEALS de la Marina,
“Pasas por delante de una cámara hasta el momento en que han tomado esta determinación y el momento en que recibes esa alerta, entre 3 y 5 segundos”.
Se trata de ahorrar un tiempo precioso. Sam Alaimo, uno de los fundadores de Zeroeyes, sostiene,
“Si hay un fusil de asalto en la puerta de un colegio, la gente quiere saber más información. Si se salva una vida, es una victoria”.
Zeroeyes también ha estado probando robots y drones para mejorar la capacidad de detectar a un tirador, y la IA entra en juego allí donde la seguridad humana se enfrenta a limitaciones. Es imposible que el personal de seguridad vigile constantemente un lugar público abarrotado, pero la combinación de IA y cámaras de seguridad puede hacer el trabajo con precisión y sin descanso.
¿Cómo funciona?
El sistema de detección de armas impulsado por IA se basa en tecnologías de sensores de vanguardia y sofisticados algoritmos de aprendizaje automático. Estos sensores desempeñan un papel fundamental en la recopilación y el análisis de datos del entorno del sistema, mientras que los algoritmos de aprendizaje automático se emplean para tomar decisiones informadas basadas en estos datos.
En particular, las cámaras de seguridad desempeñan un papel crucial en esta configuración, enviando continuamente fotogramas de muestra para su análisis mediante algoritmos de aprendizaje profundo que han sido entrenados para identificar armas.
Tras la detección de amenazas potenciales, el sistema genera rápidamente una alerta con el fotograma identificado, que se envía al equipo de seguridad para que actúe de inmediato.
Dudas sobre el uso de la IA
Quedan por responder tres preguntas sobre el papel de la IA en el control de los tiroteos masivos: si viola el derecho a la intimidad y al secreto de las personas. ¿Y no puede utilizarse para discriminar?
Privacidad y seguridad
Treinta estados de EE.UU. permiten poseer y llevar armas legalmente. Cuando se utiliza el sistema de IA en estos lugares, es probable que se acose a personas inocentes.
Según Barry Friedman, profesor de Derecho de la Universidad de Nueva York interesado en la ética de la IA,
“Llevar un arma es ahora legal en la mayoría de los lugares de este país. Es muy difícil saber lo que vas a buscar de una manera que no vulnere los derechos de las personas”.
¿Cómo puede la IA distinguir entre armas legales e ilegales?
Prejuicios y discriminación
Los expertos temen que la IA pueda utilizarse para acosar a personas por motivos de raza y color, en función de los conjuntos de datos utilizados para el entrenamiento.
Sin embargo, Greiner y Alaimo afirman que su software no discrimina por motivos de raza o color.
Lo esencial
A pesar de las persistentes dudas y preguntas de los expertos, el mercado del software de IA sigue prosperando.
Los clientes parecen dar prioridad a la seguridad sobre la privacidad. Los tiroteos masivos dejan a las familias devastadas y traumatizadas, creando una fuerte demanda de una solución duradera.
Mientras el gobierno sigue sin tomar medidas para controlar las armas, el software de IA, aunque no se haya probado y sea polémico, llena un vacío a la hora de abordar las preocupaciones del público.
A medida que el debate se recrudece, uno de los sentimientos puede ser que, por el momento, la urgencia de salvar vidas pesa más que la preocupación por la privacidad.
Hasta que la intervención gubernamental o circunstancias imprevistas provoquen ajustes en los sistemas de IA, los fabricantes de estas soluciones pueden seguir desempeñando un papel importante en la mejora de la seguridad pública.