De autonomie van de toekomstige apparatuur voor oproerbeheersing is verschoven van 'hulpmiddelen' naar 'samenwerking tussen taken', die beschikken over autonome waarnemings-, oordeels- en reactiemogelijkheden in beperkte omgevingen. Bij de kernbeslissing- zal echter nog steeds sprake zijn van een 'menselijk-on-the-loop'-model om de ultieme controle over het gebruik van geweld te garanderen.
Gedreven door AI- en roboticatechnologieën komt de autonomie van oproerbeheersingsapparatuur vooral tot uiting in de volgende drie aspecten:
Autonome perceptie en omgevingsmodellering: moderne intelligente oproerbeheersingssystemen kunnen worden uitgerust met multi-sensorfusiemodules (zoals thermische beeldvorming, lidar en microfoonarrays) om real-time scannen en in kaart brengen van complexe omgevingen mogelijk te maken. Sommige oproerbeheersingsrobots kunnen bijvoorbeeld autonoom obstakels, veranderingen in de menigtedichtheid en abnormale gedragspatronen identificeren, en kunnen nog steeds stabiel opereren in dichte rook of omgevingen met weinig- licht.
Beperkte autonome besluitvorming-Maken en gedragsreactie: Met behulp van edge computing en lichtgewicht AI-modellen kan de apparatuur autonoom specifieke taken uitvoeren binnen vooraf ingestelde regels. Patrouillerobots kunnen bijvoorbeeld, na het detecteren van gewelddadige acties (zoals hakken of aanvallen) via gedragsherkenningsalgoritmen, automatisch alarmen activeren, doelen volgen en niet-dodelijke munitie inzetten; drones kunnen bij het detecteren van bedreigingen vanuit de lucht (zoals race-drones) autonoom opstijgen en elektronische jamming implementeren.
Menselijke-Machinesamenwerking in een gesloten-missie
Momenteel maakt zeer autonome apparatuur doorgaans gebruik van een 'menselijke-on-loop''-architectuur, waarbij menselijke operators missiedoelen en veiligheidsgrenzen bepalen, terwijl het systeem verantwoordelijk is voor padplanning, doelvergrendeling en optimalisatie van de uitvoering. De 'Ball Police Officer'-robot die in sommige Chinese steden wordt ingezet, kan bijvoorbeeld autonoom patrouilleren onder leiding van AI, maar zodra een doelwit met een hoog-risico wordt geïdentificeerd, is bevestiging van het- back-endpersoneel vereist voordat verdere actie kan worden ondernomen.
Het is de moeite waard om op te merken dat hoewel volledig autonome reacties 'buiten de menselijke kring' technisch mogelijk zijn, dodelijke of -sterke autonome acties nog steeds strikt beperkt zijn vanwege ethische en juridische overwegingen. De internationale gemeenschap roept in het algemeen op tot het behoud van ‘zinvolle menselijke controle’ (MHC) om te voorkomen dat algoritmische verkeerde inschattingen tot oncontroleerbare gevolgen leiden.




