Schieten op openbare plaatsen zoals scholen, winkelcentra en kerken vormen een hardnekkig probleem, vooral in de Verenigde Staten. In veel landen wordt gedebatteerd over strengere controle op wapenvergunningen.
Het publiek blijft de gevolgen ondervinden van individuen die ervoor kiezen om willekeurige mensen neer te schieten. In de VS is wapenbezit een verankerd recht, en veranderingen hierin komen niet snel.
In de tussentijd biedt kunstmatige intelligentie (AI) enige hoop op beter antwoord op schietpartijen. Hoewel het de schutter niet tegenhoudt om ter plaatse te verschijnen, kan AI mogelijk helpen de schutter op te sporen of het aantal slachtoffers te verminderen.
Meerdere bedrijven hebben AI-oplossingen geïntroduceerd die integreren met beveiligingssystemen op openbare plaatsen, zoals beveiligingscamera’s. Deze systemen geven tijdige feedback aan beveiligingspersoneel, zodat ze snel kunnen ingrijpen.
Toch zijn AI-oplossingen niet zonder tekortkomingen. Deskundigen waarschuwen dat het scannen van openbare plaatsen de privacy van bezoekers kan schaden en dat AI mogelijk discriminerend kan werken tegen bepaalde gemeenschappen of rassen.
Schietpartijen blijven een groot probleem, en veiligheid is cruciaal. Het is dan ook niet verwonderlijk dat de markt voor AI-oplossingen snel groeit.
Hoe kan AI massale schietpartijen helpen verminderen?
Laten we kijken naar ZeroEyes, een bedrijf dat AI-oplossingen levert om wapengeweld te monitoren, te voorkomen en te controleren.
De AI-software van ZeroEyes integreert met bewakingscamera’s op openbare plaatsen en houdt de bezoekers in de gaten. Wanneer de camera een persoon met een zichtbaar vuurwapen detecteert, laat de software een rood licht knipperen in de meldkamer van een getrainde hulpverlener.
De hulpverlener bekijkt snel de beelden en als er een dreiging wordt geconstateerd, wordt de beveiliging onmiddellijk gealarmeerd. De beveiliging kan vervolgens de politie inschakelen.
Hoewel deze werkwijze tijdrovend lijkt, volgens Rob Huberty en Sam Alaimo, beide oprichters van ZeroEyes en ex-Navy SEALS, is dit systeem effectief en snel.
“Je loopt voor een camera naar het tijdstip waarop ze deze vaststelling hebben gedaan en het tijdstip waarop je die waarschuwing ontvangt, 3-5 seconden.”
Het gaat om het besparen van kostbare tijd. Sam Alaimo, een van de oprichters van ZeroEyes, beweert:
“Als er buiten een school een aanvalsgeweer hangt, willen mensen meer informatie. Als er één leven wordt gered, is dat een overwinning.”
ZeroEyes test ook robots en drones om schutters beter te kunnen opsporen. AI biedt uitkomst waar menselijke veiligheid beperkingen kent. Voor beveiligingspersoneel is het onmogelijk om continu een drukke openbare ruimte te monitoren, maar de combinatie van AI en beveiligingscamera’s kan dit nauwkeurig en onvermoeibaar doen.
Hoe werkt het?
Het AI-aangedreven wapendetectiesysteem is gebaseerd op geavanceerde sensortechnologieën en geavanceerde machine learning algoritmen. Deze sensoren spelen een cruciale rol bij het verzamelen en analyseren van gegevens uit de omgeving van het systeem, terwijl machine learning algoritmen worden gebruikt om op basis van deze gegevens weloverwogen beslissingen te nemen.
Met name beveiligingscamera’s spelen een cruciale rol in deze opzet, waarbij ze voortdurend voorbeeldframes verzenden voor analyse met behulp van deep learning algoritmen die zijn getraind om wapens te identificeren.
Bij detectie van potentiële bedreigingen genereert het systeem onmiddellijk een waarschuwing met het geïdentificeerde frame, dat vervolgens wordt doorgestuurd naar het beveiligingsteam voor onmiddellijke actie.
Vragen over het gebruik van AI
Drie vragen over de rol van AI bij het beheersen van massale schietpartijen blijven onbeantwoord, waaronder de vraag of het het recht van een individu op privacy en geheimhouding schendt. En kan het niet gebruikt worden om te discrimineren?
Privacy en veiligheid
Dertig staten in de VS staan toe dat mensen legaal een wapen bezitten en dragen. Bij het gebruik van AI-systemen op deze plekken worden waarschijnlijk onschuldige mensen lastiggevallen.
Volgens Barry Friedman, hoogleraar rechten aan de New York University met interesse in AI-ethiek, kunnen deze systemen leiden tot onterecht politieoptreden tegen burgers die legaal een wapen dragen:
“Het dragen van een wapen is nu op de meeste plaatsen in dit land geoorloofd. Het is heel moeilijk om te weten waar je naar gaat zoeken op een manier die geen inbreuk maakt op de rechten van mensen.”
Hoe kan AI onderscheid maken tussen legaal en illegaal wapengebruik?
Vooroordelen en discriminatie
Deskundigen vrezen dat AI kan worden ingezet om mensen te profileren op basis van ras en huidskleur, afhankelijk van de datasets die voor de training worden gebruikt.
Greiner en Alaimo beweren echter dat hun software geen onderscheid maakt op basis van ras of huidskleur.
Conclusie
Ondanks aanhoudende twijfels en vragen van experts blijft de markt voor AI-software groeien.
Klanten geven veiligheid en beveiliging voorrang boven privacykwesties. Massale schietpartijen laten gezinnen verwoest en getraumatiseerd achter, wat de vraag naar een duurzame oplossing versterkt.
Hoewel overheidsoptreden op het gebied van wapenbeheersing uitblijft, biedt AI-software, ondanks dat deze nog niet volledig getest is en controversieel blijft, een oplossing voor publieke zorgen.
Naarmate het debat voortduurt, lijkt de urgentie van het redden van levens voorlopig zwaarder te wegen dan de zorgen over privacy.
Totdat overheidsingrijpen of onvoorziene omstandigheden aanpassingen aan AI-systemen vereisen, spelen fabrikanten van deze oplossingen mogelijk een belangrijke rol bij het vergroten van de openbare veiligheid.
Referenties
- About Us – ZeroEyes – (ZeroEyes)